votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3767 commentaires

Le 02/11/2021 à 14h 37


luxian a dit:


C’est utile le montage réseau de Sharepoint, sauf que quand tu rebootes, tu perds la connexion (ou j’ai zappé comment enregistrer les identifiants spécifiquement).


Il faut le définir comme persistant, je crois que dans l’interface graphique c’est dès le début, sinon:
net use X:\monsharepoint.local@SSL\sites\monsite /persistent:yes

Le 02/11/2021 à 14h 05

Plus l’idée d’Open with Explorer …
Il va te donner une URL que tu vas ajouter dans l’explorateur comme “ajouter un emplacement réseau” ensuite, tu pourras naviguer dans le site Sharepoint comme si c’était un montage réseau partagé : ce qui évite par exemple de “télécharger” un document avant de le consulter.
C’est utile le montage réseau de Sharepoint, sauf que quand tu rebootes, tu perds la connexion (ou j’ai zappé comment enregistrer les identifiants spécifiquement). Il faut relancer IE (11) te connecter à nouveau à ton sharepoint pour pouvoir renaviguer via Explorer.exe en SSO. Si ton IE est superdesupersuperLENT à cause de je ne sais quelles policies et l’anti-virus et en plus une machine à laver “maison” impossible à bypasser, tu voudrais bien avoir le même single sign on via Edge qui lui se lance en 1 clic.



Merci bien pour les liens, je vois l’idée maintenant, mais je trouve pas comment implémenter, ni les bonnes clés BDR. S’il faut les policy admin du groupe et pas seulement comme user local, alors c’est mort pour moi … :pleure:

Check your MPs

Le 02/11/2021 à 11h 14


luxian a dit:



https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RWGT6N
et support.google.com Google


On l’a fait au boulot, c’est deux-3 clés de registre et un fichier xml.



Note: Ms l’a activement promu, mais en fait chrome enterprise le faisait depuis plusieurs année déjà.

Le 02/11/2021 à 13h 44


Soraphirot a dit:


C’est un poil tiré par les cheveux, les NUC à ~10w c’est en idle. Là le Pi tirera au maximum 12.5w quand le NUC fera des pointes à 20-30w pour les plus économes.


Les NUC c’est 6 à 10W en IDLE. Mais là où le RPI monte vite, le NUC/mini PC reste à quelques % de charge (dans mon cas: serveur PHP, proxy, firewall). L’écart est alors ridiculement faible en conso. Le RPI est toujours plein de limitations (Ethernet 100, Wifi N, pas possible de tirer trop de jus sur les ports USB), le 4 est mieux mais difficile à refroidir et cher.



Alors oui, pour un projet mono utilisateur/mono logiciel c’est pas mal, pour bidouiller/maquetter c’est bien, mais dès que je passe “en prod”, je n’ai pas été convaincu par le RPI.




OlivierJ a dit:


Je trouve ça incompréhensible qu’un logiciel généraliste comme NodeJs ne se satisfasse plus d’un ARM32, ni d’un ARM v6. Quelle est l’explication ?


Je pense que c’est surtout une question de compilateur. Le RPI première version est un ARMv6 (donc bien vieux comme archi - avant 2005, maintenant plutôt l’équivalent des cortex m0 qu’on trouve en embarqué pour remplacer les arduino).




Sur une petite machine, suis pas très connaisseur de NodeJs mais j’imagine que c’est relativement gourmand. Il me semble par ailleurs qu’un programme compilé pour du 32 bits est plus petit que pour du 64 bits, où les instructions sont plus longues ; en tous cas ça a été le cas pour certaines architectures.


Tout dépend ce qu’on fait de NodeJS. Mais effectivement c’est souvent un environnement un peu overkill sur de petits projets. D’un autre côté, on nous propose des cartes type arduino à programmer en python, donc le gâchis de perfs c’est assez courant.



Pour la taille des instructions: ça a un réel impact sur des archis avec très peu de mémoire ou un bus mémoire lent mais actuellement la taille des programmes est tellement inférieure à la taille des données que ça n’a pas d’importance.

Le 29/10/2021 à 14h 01


brazomyna a dit:


En voilà des comms qui sentent pas le rance pour un sou, et viennent apporter une incroyable valeur ajoutée à la discussion.


Je voulais juste souligner que même si Node.JS pourrait fonctionner sur un RPI Zero W 2, dans les faits il y encore des limitations. Même si 512Mo, c’est déjà énorme pour énormément de projets sur RPI.



Par exemple, certains lecteurs audio (comme volumio) basés sur NodeJS peuvent manger beaucoup de RAM. Mais il est toujours difficile de savoir ce qui est consommé et ce qui est nécessaire.



J’avais retenu mon avis perso sur NodeJS pour moi.



J’utilise essentiellement des RPI Zero pour mes projets (même pas W) pour leur compacité et leur conso très restreinte - donc facile à alimenter par batterie (+ le choix de pouvoir souder des connecteurs GPIO coudés, ou pas du tout, ou juste ceux qu’on souhaite utiliser)



Là je suis mitigé, comme d’habitude: 2,5A et 5V, ça fait la conso d’un petit PC et même plus qu’un NUC. Sauf que la plupart des charges de travail qui secouent un peu les RPI, elles laissent les PC de marbre (par exemple: certaines charges à 100% sur une RPI 3 poussent le PC à 15% et il finit plus vite).

Le 28/10/2021 à 14h 01


brazomyna a dit:


On passe d’un arm32 a un arm64 ce qui pour moi est le plus intéressant. Nombre de softs (genre nodejs de mémoire) ne se satisfont plus d’un arm32.


Après, nodejs sur 512Mo de RAM, c’est pas forcément le bon choix.

Le 02/11/2021 à 11h 33


David_L a dit:


Et encore, tu oublies les billets de blog pas datés, ceux avec juste des conseils de merde pas vérifiés (ou corrigés). Quand je fais ce genre de papier j’en mange des km et je pleure :D


Et nous t’en remercions :incline:

Le 02/11/2021 à 11h 09


David_L a dit:




  • Tout ce qui s’approche d’un troll pro/anti systemd ou autre sera modéré

  • Toute récidive mènera au blocage


D’un autre côté, l’article met le doigt sur ce qui fâche. Quand on se retrouve à gérer plusieurs distro différentes car achetées avec des produits différents, Linux c’est juste une jungle et un enfer.



L’article aborde juste le lancement d’un script au démarrage, mais parfois la config réseau, la config kerberos se complique car les docs ne sont pas à jour, pas centralisées et les tutos antédiluviens.



systemd n’est pas un mauvais système, c’est une vision différente, et il paye surtout d’avoir été long et compliqué à mettre en place pour remplacer sysinit (vu l’historique, pas de surprise, ça a tatonné un peu).



Par rapport à rc.d, systemd a un énorme avantage: il permet de décrire les dépendances. Dans rc.d on jouait sur les noms des fichiers pour déterminer l’ordre, là on est plus sur du service que de la technique pure. C’est plus proche de ce qu’on fait sous Windows (dire qu’un service dépend de tel ou tel autre pour qu’il démarre après).



Par contre mettre systemd sur un système embarqué, c’est très peu utile et relativement compliqué si sysv était déjà là.



On a donc toute la mémoire/amertume/rancoeur collective du produit qui a été mal utilisé/paramétré et a eu une courbe d’apprentissage/mise en place assez longue (donc c’est comme SAP, BO ou Sharepoint 20xx qui ne méritent pas la réputation que leur donnent les utilisateurs)



Petit plus de systemctl: la commande systemctl enable peut être lancée pour un utilisateur pour lancer des services quand il se logue (–user) ou pour tous les utilisateurs qui se loguent (–global)

Le 02/11/2021 à 11h 19


tpeg5stan a dit:


Sans être expert du sujet, la gendarmerie n’a pas un projet similaire basé sur Gendbuntu, géré en interne et qui « tourne bien » ? Ce ne serait pas possible de le copier-coller et d’en transférer la gestion ? M’enfin j’imagine que la querelle d’égos police/gendarmerie doit être un frein monstrueux.


Et passer pour la gendarmerie d’éditeur interne à éditeur avec client… c’est un cap difficile.




SKN a dit:


Dans ce genre de cas (je connais peu les marchés publiques), où va l’argent? Capgemini l’a reçu et ne rendra pas??


C’est comme pour le privé: il faut l’avoir prévu ou ça finit chez les avocats. On peut aussi s’arranger. Mais en général, tout n’est pas payé d’un coup au départ, on découpe par lots/phases et on paye ce qui est livré.



L’abandon en court de route peut mener à des pénalités.

Le 29/10/2021 à 21h 29


(quote:1910704:Idiogène)
Je pense qu’on ne peut pas tout savoir mais a priori les apps clients sont moins énergivores à cause de l’énergie grise des processeurs. Sur les ordiphones la puissance de calcul est maintenant conséquente, la batterie aussi : autant en profiter.


Ou relancer le minitel. Avec les technos actuelles et le débit, ça devrait être fluide.

Le 29/10/2021 à 17h 37


(quote:1910695:Idiogène)
Il y a des pistes mais la faisabilité reste quand même bien lourde pour peut-être gagner 2W en pratique.


On n’est pas du tout sur du 2W à mon avis. Avec des traitements de nuit mal fichus qui saturent CPU/RAM/IO + les recalculs d’index souvent inutiles de 5-8h chaque dimanche, il y a de quoi faire.



Effectivement, le but est d’éteindre les serveurs, les mettre en veille, ainsi que des baies de stockage si possible, voire du réseau.



Dans tous les cas, concevoir une appli qu’on peut éteindre, qui ne demande pas de traitements de nuit, permet déjà de l’exécuter sur une infra cloud à moindre coût.




On peut par exemple chauffer entièrement des bureaux avec l’IT.


On est plutôt à climatiser l’IT et chauffer les bureaux à côté :)



Et l’IT n’est pas un chauffage efficace.

Le 29/10/2021 à 14h 10


(quote:1910564:Idiogène)
De Minuit à 6 heures du matin certains serveurs n’ont pas besoin de tourner.


Je dirais qu’au mieux pour les sites internet, on peut couper de 4h à 5h du matin. On a presque autant de requêtes entre minuit et 3h par exemple que sur des heures de la matinée.



Par contre, baisser le nombre de serveurs, mutualiser sur un serveur qui fait tout en cas de charge basse c’est faisable.



Mais je pense que pour faire des économies et de la green it, réfléchir à comment sont gérés/ recalculés les index de bdd, comment sont faites les sauvegardes, bannir les traitements de nuit pour pouvoir éteindre les serveurs, ça serait pas mal. Mais ça remet en question pas mal la façon de concevoir/programmer les systèmes.

Le 28/10/2021 à 20h 38

Il va rencontrer des petits bonhommes verts rigolos qui vont lui voler la vedette. Comme les minions.

Le 28/10/2021 à 13h 57

Euh, question peut-être stupide: 24threads, c’est bien 16 sur les coeurs BP et 8 sur les BE?
J’appréhende un peu la différence de perfs entre les BP et les BE, et la capacité des OS à envoyer les threads sur les bons coeurs.



Quand au MTP de 60W+ sur les modèles 35W, c’est déjà un eu le cas, mais pas à ce point quand même. Même les alims de 90W vont souffrir.

Le 22/10/2021 à 13h 18


Freeben666 a dit:


Ce qui est conforme aux specs. Les “boost clocks” sont annoncées sur un nombre de cores limités si je me souviens bien, pas sur l’ensemble des cores.


Oui, c’est vrai, je n’avais pas tout relu.
Et sincèrement, cette polémique m’est un peu passée au-dessus: je ne compte pas sur le boost pour me donner les perfs en vitesse de croisière - et pourtant je constate que chez AMD c’est super stable là où en général Intel c’est les montagnes russes encore régulièrement.



Après, je ressortais cet “argument” en pur troll, pour souligner la complexité de la gestion des CPU actuels, particulièrement AMD, qui a nécessité pour en tirer les meilleurs perfs des aménagements assez profonds.



Alors si on change d’OS, je ne vais pas forcément tenir rigueur ça tatonne sur ce point un tout petit peu. Bien que je rejoigne un certain étonnement que ce n’aie pas été vu avant la release. Ca ne donne pas confiance dans les tests de Ms concernant les perfs.

Le 22/10/2021 à 12h 34


Freeben666 a dit:


Tous les cores atteignent les specs, mais certains peuvent être plus overclockés (boostés, overdrivés, …) que d’autres.


J’en était resté là: https://www.tomshardware.com/reviews/amd-ryzen-3000-turbo-boost-frequency-analysis,6253-4.html



Tous les coeurs n’atteignent pas forcément le boost de la fiche technique.

Le 22/10/2021 à 12h 22


AlbertSY a dit:


Cela mérite un proces….


On est dans le complotisme là. Le tir a été rapidement corrigé. Et Ms a tout de même bien bossé sur Windows 10 pour faire fonctionner les AMD. Avant on s’en moquait pas mal du coeur le plus rapide du CPU. Maintenant, chez AMD on nous vends des CPU dont on nous garanti que certains coeurs atteignent les specs.
Petit rappel du bazar qu’est un AMD pour le scheduler: https://www.anandtech.com/show/15137/amd-clarifies-best-cores-vs-preferred-cores

Le 22/10/2021 à 08h 56


Soraphirot a dit:


Au minimum Intel Gen 8 ou AMD Zen 2 pour être compatible Win11. C’est ce qu’impose Microsoft et si le PC ne remplit pas les prérequis alors Win Update est coupé.


Et certains Zen1+ comme le mien.




(quote:60863:N.Master)
Bon, la réponse c’est certainement que les devs chez microsoft sont cul et chemise avec intel, mais ça fait un peu gros quand même comme explication


Peut-être que l’OS sort “un peu vite” et que les tests de perfs n’ont pas été aussi poussés qu’il l’aurait fallu?
Peut-être que l’OS sort à l’arrache pour accompagner les processeurs Intel nouveaux (asymétriques) et que la plupart des tests ont concerné ces nouveautés?
Peut-être aussi que maximiser les perfs des Ryzen n’est pas aussi simple que pour les Intel? (même si les principes se sont plutôt rejoints depuis l’arrivée de Ryzen)

Le 22/10/2021 à 12h 29


David_L a dit:


Tu renvoies vers un test pour resituer, je précise qu’on en a déjà publié un ;) Pour le reste je ne comprends pas trop la question ou le sujet, surtout que la compatibilité Linux n’est pas figée dans le temps.


Je n’étais pas sûr que les deux étaient comaprables à des CPU généralistes (notamment le P550).



J’ai compris mon erreur: contresens dans la traduction. “the P270, SiFive’s first Linux capable processor with full support for the RISC-V vector extension v1.0 rc” n’implique pas que le P550 ne soit pas compatible Linux.



Mais en revenant aux références des ISA les 2 sont bien comparable à des CPU généralistes (et pas des CPU dédiés à l’embarqué)

Le 22/10/2021 à 12h 15


David_L a dit:


Pas besoin de resituer, c’est ce qu’on dit dans l’article qu’on a consacré à cette carte ;)


Je ne te suis pas:




  • La carte “unmatched” est sur un SiFive U740 (RISC RV64GC:)

  • Le P270 est un RV64GBCV - même série que le U740

  • Le P550 est un RV64GBC - pas de vecteur et en plus out of order



-> Le P550 était déjà un “G” donc il me semblait que ça suffisait pour faire du Linux
Mais il ne le mettent pas dans la même catégorie que le P270, plus généraliste car il a les instructions vectorielles, mais qui est basé sur une “série 7” comme le RISC de la unmatched.



–> Arg! Je suis paumé! C’est cool ces histoires d’IP, mais on n’est jamais sûr de ne pas comparer des choux avec des carottes ou des panais.

Le 22/10/2021 à 08h 53

Juste pour resituer: https://www.sifive.com/press/sifive-performance-p550-core-sets-new-standard-as-highest



SiFive décrit bien le P550 comme un SOC performance pour le calcul, mais ils évoquent que le P270 est “compatible Linux”.



On est donc bien sur un SOC dédié intégration voiture, réseau, mais pas adapté à un environnement de dev “classique” sous Linux?
Mais les A75 sont bien compatibles Linux, eux, et complètement il me semble.



Le P270 par contre a l’air bien comparable, et compatible avec les instructions NEON des ARM.

Le 22/10/2021 à 09h 18

Par contre, tout à fait d’accord avec l’histoire des spécialités. Comme rien n’est synchronisé entre la réforme du lycée et du supérieur, le supérieur continue à demander des combinaisons parfois impossibles de spécialités (on ne peut plus faire spécialité math, physique et avoir encore de la bio par exemple, en tout cas pas dans toute la France - or c’est demandé pour la prépa BCPST).

Le 22/10/2021 à 09h 01

“Rendre anonyme le lycée d’origine”: effectivement , on a constaté des choses étranges dans le recrutement selon que la personne vienne d’un lycée ou l’autre… Mais ça a toujours existé, certains lycée notant vraiment sévèrement par rapport à d’autres plus enclin à faire plaisir aux parents pendant l’année…



Avec le contrôle continu renforcé, cela pourrait se gommer, mais on n’y est pas du tout.

Le 22/10/2021 à 09h 15


deathscythe0666 a dit:


Ça me surprend un peu, ou alors c’est la dite bibliothèque qui est mal fichue et force à utiliser des versions trop avancées d’OpenGL et de GLSL sans proposer des versions dégradées, ce qui est assez débile pour une bibliothèque…


C’était LWJGL. J’ai retrouvé un patch: https://www.planetminecraft.com/mod/mod-opengl-fixer/



Mais les premiers mois: aucune solution, sauf changer d’ordi. Le chagement de version faisait passer la version minimale d’OpenGL en 4.6, avant même d’utiliser les nouveaux shaders.
Ca a mis à la corbeille les intel HD 4600 et tout ce qui était en-dessous.

Le 21/10/2021 à 06h 20


SIaelrod a dit:


oui ou les très gros projet “tousse” Discord “tousse” qui utilise des librairie a plusieurs version de retard pour évité les mises a jours


Un jour Minecraft a mis à jour la librairie graphique (genre de la version 1.9999 à la 2.01).
-> Ca a apporté plein de nouveautés pour les shaders
-> Ca a monté le niveau d’exigence OpenGL de plusieurs crans, mettant de côté tous les PC tournant sur des intel IGP un peu trop vieux (alors qu’il tournait correctement dessus).



Le problème, c’est que mettre à jour peut casser ton soft, et les softs sont rarement faits pour une mise à jour “partielle”.



Par ailleurs, tu peux avoir des références croisées: une lib A qui dépend de B en 2.0 et une lib C qui en dépend aussi.
lib B est passé en 3.0, cassant quelques petites choses.
lib C évolue et prend en compte la 3.0, pas lib A…



C’est pas pour rien si à la gendarmerie il ont des plans de fou pour tout retester et qualifier en permanence!



Perso j’ai déjà vécu des situations de daube:




  • Disparition d’un pilote du noyau linux empêchant de passer au kernel suivant (merci IBM) et du coup impossible d’upgrader les Redhat, et du coup impossible d’upgrader les PHP en mettant à jour les paquets

  • Tentative manuelle: recompiler PHP (ok) recompiler les plugins (pas ok, il fallait upgrader gcc car le plugin de bdd nouvelle version en avait besoin). Tentative d’upgrade gcc: nécessite de recompiler glibc car version non dispo pour le Linux … bref, abandon, trop risqué… 2 mois de travail pour un dead-end.

Le 21/10/2021 à 13h 59


ben5757 a dit:


Ou alors il suffira d’utiliser un DNS non français et éviter d’aller sur des sites exclusivement francophone. Je pense que vous misez trop de chose sur une solution technique


Le DNS ne changera rien, quand aux sites non francophones, vu le niveau des gamins, ça ne peut que leur faire du bien :)



Si je suis bien d’accord que l’éducation est primordiale, je ne suis pas contre une solution technique, notamment pour ce que je ne peux pas moi-même fournir en solution technique.



Là on ne parle pas de filtrage, de fichage ou de mouchard:




  • Tous nos comptes seront vérifiés par rapport à une identité

  • Rien n’empêche d’avoir plusieurs comptes sur la même plate-forme

  • Rien n’oblige la plate-forme à afficher l’identifiant unique (et ce serait stupide de l’afficher)

  • En cas de plainte, la plate-forme fournira l’identifiant unique au contrôleur qui en déduira immédiatement l’identité de la personne



Avantages:




  • pour les plate-formes: bien plus simple pour fournir les infos en cas d’enquête, garanti que les personnes existent

  • pour la justice: vitesse



Perso, je chargerais le contrôleur de donner son avis sur les restrictions légales concernant la personne identifiée: notamment concernant les restrictions d’âge

Le 19/10/2021 à 09h 52


numerid a dit:


Dans un monde idéal pourquoi pas. Mais une base de données peut être exploitée à des fins qui ne sont pas prévues au départ et détournée de sa vocation. En outre une base de données a une mémoire qui n’est pas volatile, elle.


A mon avis il y a une mauvaise idée de ce qu’est une base de données.



1- Qu’un tiers géré par l’état puisse vérifier l’identité à partir d’infos données lors de la création d’un compte, et fournir une clé pour authentifier ce compte –> aucun besoin d’échanger moult données
2- Cela permet de ne fournir qu’une “clé” et de multipler les identités: facebook ne pourra plus forcément croiser les infos avec un autre site qu’ils auront racheté
3- Par contre, le tiers pourra lister où des comptes ont été créé et redonner un peut plus de visibilité sur qui utilise les données
4- tout comme avec france connect, l’utilisateur peut gérer quelles données sont partagées avec qui



Moi, je n’y vois rien qui empêche la liberté d’expression, rien qui puisse tuer le pseudonymat et beaucoup d’avantages “possibles si bien fait” pour l’utilisateur.
Même les plate-formes pourraient y trouver des avantages.

Le 18/10/2021 à 18h 30


benjaminklein a dit:


que risque t’il de se passer si cette loi passe par malheur d’apres vous ?


Les enfants ne pourront plus créer de compte eux-mêmes en douce notamment. Les adultes auront un moyen de détecter les tentatives d’usurpation d’identité. On pourra espérer à terme avoir un endroit unique d’où lister les comptes qu’on a créés, et les révoquer. Les plate-formes pourront espérer avoir un moyen de vérifier qu’un compte est encore actif pour purger les comptes des inactifs et des gens décédés.

Le 18/10/2021 à 18h 27


numerid a dit:


Et, par exemple, on ne peut pas d’un côté vouloir protéger les adolescents et adolescentes homosexuelles qui s’exprimerait sous couvert de l’anonymat et, d’un autre côté, exiger que tout un chacun et tout un chacune montre sa carte d’identité dès lors qu’il ou elle veut s’exprimer, librement, sur internet.


Perso, je ne le vois pas comme cela. Rien n’empêche de créer un compte avec un pseudo, et de garder les informations personnelles masquées. Voire ne pas les avoir en fait. Mais créer un compte avec la carte d’identité:




  • Garanti beaucoup plus l’identité

  • Simplifierait les recrous

  • Permet d’éviter les comptes multiples à des fins inavouables

  • N’empêche en rien un pseudonymat tel qu’il existe



Avoir un tiers pour valider l’identité n’est pas idiot: de fait on peut valider l’identité SANS la transmettre.

Le 18/10/2021 à 13h 23


(quote:1908362:skankhunt42 )
C’est marrant car j’ai été modérateur IRC il y à environ 20 ans et nous avions absolument la même problématique…


Exactement. Il me semble que sur les forums c’est obligatoire d’avoir des modérateurs “intrinsèquement” car de mémoire l’hébergeur est responsable des propos (j’ai juste ???)



Mais c’est comme ça ne s’appliquait pas vraiment à facebook.

Le 18/10/2021 à 12h 37

Perso je ne vois pas le problème en fait. Que l’on soit obligé de créer un compte par personne sur facebook/twitter, compte vérifié, ça me plaît bien.
Ca éviterait les comptes secondaires pour se défouler.



Et de même tout groupe facebook devrait s’auto modérer, avec responsabilité pénale de responsables de groupes.




(quote:1908351:skankhunt42 )
Le danger de brider la liberté d’expression génère deux problèmes :




  1. L’underground : Kevin 16 ans viens de ce faire bannir de jeuxvideos.com parce qu’il à créer un sujet à propos de sammuel paty. Il devrait donc poursuivre la conversation sur un réseau underground et ce retrouvera entouré d’anti sémites.


On en est déjà là sur facebook et twitter. Tu te fais jeter rapidement ou harceler de messages si tu vas dans un groupe de “discussion” sur lequel tu es modéré et pas extrémiste.

Le 20/10/2021 à 13h 20


Vser a dit:


j’ai opté pour un AsRock DeskMini X300 avec un 5700G


J’en ai eu un quelques semaines avec un 3400G. Il ne m’a pas convenu à cause d’un certain déséquilibre: 2 SATA + 2NVMe: super, 3 USB: horreur!



Mais surtout: Deskmini x300 + AMD 3400G + Proxmox = bugs à répétition (NVMe plus détecté au bout de quelques secondes ou minutes).



Par contre, génial sous Windows.




David_L a dit:


Chez Noctua tu as le NH-L9a-AM4 qui est pas mal pour ce genre de format de machine, je l’utilisais avec un précédent DeskMini.


Il passe ras sur le Deskmini x300. Pour moi, trop ras, il poussait les refroidisseurs des MOSFET, mais ce n’est pas le cas de tout le monde car les radiateurs de mosfet utilisés changent…




(quote:60731:N.Master)
D’ailleurs en règle générale, la gestion de la conso est bonne sur les ryzen sous linux ?


Même sous Windows et sans chercher à bidouiller, on arrive à 9W-12W à vide sur un deskmini avec un APU 65W.



A ce niveau, il n’y a plus rien à grapiller. Mon 3200GE est à moins de 15W en Idle (lenovo tiny par contre, donc bon rendement à faible conso).

Le 19/10/2021 à 20h 53


piwi82 a dit:


Ça n’a pas vraiment de sens d’installer un Linux sur un Mac M1 à l’heure actuelle.


Linux, c’est pas un système juste pour faire durer les vieilles machines. On peut vouloir Linux pour plein de raisons, par exemple pour avoir quelque chose d’un peu moins obtus que MacOS en cas d’utilisation entreprise (vieux souvenirs d’arrachage de cheveux entre MacOS/iOS et le réseau Cisco), ou pour avoir des fonctionnalités moins bridées que ce que certains OS propriétaires proposent.
Et puis il y a le côté sport/ultra snob.




snakesolid a dit:


C’est plus une question de volume que de prix


Si on se rappelle l’époque des P2 & Celeron 400, c’est plus une question de segmentation de marché que de prix de revient.
Apple a créé un M1 qui fait très fort, et placent leurs prix en-deçà des Apple x64 précédents de performances inférieures, histoire de bien montrer la supériorité du matériel Apple.
J’imagine bien qu’ils margent encore bien fort (et je pense qu’ils le méritent, ce n’est pas un reproche), mais il faut reconnaître que sur les Mac “pro” x64 précédent, les prix étaient très très très forts…



Les M1 vont certainement rester un moment moins chers, le temps de sortir toute la gamme. Ensuite, soit ils augmenteront de prix, soit (et je pense que c’est probable) ils seront légèrement simplifiés car je pense qu’une partie des transistors est une aide pour l’émulation x64.



Pour le moment on est dans une phase de pénétration de marché. Une fois bien en place, ils pourront marger plus, potentiellement sans bouger les prix.

Le 19/10/2021 à 14h 41


ZoZo a dit:


Ce que je veux dire c’est que ça remet en perspective la rivalité Intel/AMD,


Tout à fait. On a l’impression que c’est une vieille bataille sur des enjeux qui ne sont plus d’actualité.
Si un constructeur ARM réussi à faire une puce presque équivalente au M1 mais pour PC, Windows on ARM va décoller. Enfin, si elle ne coûte pas le double du prix pour 30% des perfs du PC comme ça a été le cas (en exagérant) avec les dernières tentatives.



Car un des problèmes des PC basse conso, ça a été qu’ils ont été fortement décrié non pas pour ce qu’ils étaient, mais pour ce qu’ils n’étaient pas (les transmeta en 2000, les PC en atom avec CG de portable vers 2010, les derniers portables ARM). On ne leur a laissé aucune chance car ils ne faisaient pas tourner les applis qui ne leur étaient pas destinées.




patos a dit:


Oué mais moi je préfères une machine moins parfaite, et réparable même si c’est un peu compliqué. Parce qu’ajouter de la RAM, changer le disque et changer la batterie sont absolument essentiel pour qu’un ordinateur dure longtemps.


Sera-ce toujours le cas? J’ai plusieurs ordis en 8Go de RAM, mon ordi de jeu est une 3570K en 8Go de RAM, j’ai juste mon poste de dev en 16Go de RAM… Ca suffit amplement pour mes usages (et ils sont nombreux).
Si un ordi est optimisé avec une OS optimisé (donc pas … Android), 8Go de RAM peuvent largement suffire.

Le 19/10/2021 à 08h 09


(quote:60647:N.Master)
C’est vraiment toute une floppée de sous systèmes plus ou moins spécialisés.


C’est la tendance actuelle (exemple: intel GNA). Le GPGPU a montré que le CPU n’est pas capable de suivre sur plusieurs types de calcul qui sont de plus en plus courants/répandus.
Par ailleurs, le paradigme actuel “périph -> CPU -> RAM -> CPU pour le calcul -> RAM -> périph” est bien remis en cause aussi.
Autant faire périph qui calcule <-> RAM.



Remettre le CPU non pas au centre comme en x86, mais sur le bus au même titre que toute autre unité. Laisser les unités travailler à leur rythme, parfois plus vite que le CPU ne pourrait, et surtout avec moins de latence que si le CPU doit tout orchestrer lors d’échanges.



Ce que je crains, c’est qu’avec les directstorage et autres, Apple finisse par mettre le SSD aussi sur la puce.

Le 19/10/2021 à 06h 24

Belles bêtes. La réussite du iGPU face à ceux d’Intel et AMD est certainement très liée à la BP de la RAM, très impressionnante (et les tests de latence du M1 le plaçait plus proche d’intel que d’AMD sur ce terrain).



A se demander si un x86 basé sur de l’ARM avec un traducteur en amont ne serait pas faisable pour de la basse conso (c’était faisable en 2000 avec Transmeta et autre chose que ARM).



Après, avec Windows en ARM, on s’en moque un peu, si quelque constructeur arrive à faire de l’ARM aussi avancé qu’Apple.

Le 19/10/2021 à 14h 45


RedWave a dit:


Il est possible que les i3-12 soient aussi prévus comme solution de gestion des “déchets” des Core-i5
Autre possibilité, un processus de fabrication “éprouvé” de type Core-11 ultra-rentable ou moins difficile (avec moins de rejets)


Oui, c’est effectivement probable … Et puis la différence en conso à vide entre 4 coeurs rapides et 2 lents est peut-être pas assez significative en y pensant. Je ne sais pas combien vont consommer les machines à vides, mais la mienne fait 10-12W (Ryzen 35W), les intel équivalents 9-10, des coeurs lents feraient peut-être baisser de 2W-3W mais le reste de la plate-forme a quand même besoin de tourner (RAM, USB, NVMe, CG, Wifi)

Le 18/10/2021 à 13h 36

En fait, si j’apprécie de voir ces nouveautés, je ne comprends pas pourquoi en bureau des i3 n’ont pas de coeurs lents mais des i7 si.
Le i7 je le vois bien dans des stations de travail, ordis d’utilisateurs exigeants qui n’ont généralement que faire de la conso (en tout cas qui ne sont pas à économiser quelques Watts sur le CPU pendant une séance de navigation).



Par contre, sur un parc de i3 bureautique, ça pourrait être bienvenu.



Pour le reste, je pense que ça va être un sacré renouveau. Hâte de voir des applis courantes en prendre compte (notamment des accélérateurs “IA”)

Le 18/10/2021 à 08h 55

Deux choses dans cette constatation. Les marketplace permettent de vendre des produits non conformes -> il faudrait pouvoir les faire fermer.



Le côté non conforme des produits est parfois manifeste, parfois juste profondément infantilisant pour le consommateur

Le 15/10/2021 à 09h 18


Tchyo a dit:


Et sinon, ils pensent quoi des banques et de leurs claviers virtuel tout pétés qui bloquent les gestionnaires de mots de passe, et forcent des mots de passe à 8 chiffres au mieux ?


La technique est loi d’être idiote:




  • Toi tu vois des chiffres, pas sûr du tout que ce soit ça qui soit transmis, ce qui est échangé peut être totalement aléatoire

  • Les chiffres sont dans le désordre, il faut les voir physiquement pour les copier

  • Ca se retient bien, il n’est pas copié partout comme les mots de passe



C’est bien mieux qu’on code pin sur un tél avec des doigts gras :)

Le 15/10/2021 à 08h 00

Ce qui est drôle, c’est la politique de mots de passes de certains sites comme:




  • Obligation des caractères spéciaux / interdiction des espaces -> exit la phrase mot de passe

  • Longueur maxi de x caractères (10, 12) -> Idem

  • Suppression automatique des caractères accentués et autres caractères non ASCII 7 bits (non précisée celle là, mais vu sur des sites, quand on s’acharne à mettre 8 car, mini, on en a tapé 10 mais il râle)



Ils feraient donc mieux de tester l’entropie plutôt que des nombres de caractères et présence de caractères “non naturels” quand on fait un nouveau mot de passe

Le 14/10/2021 à 07h 22


Inodemus a dit:


C’est pas si fréquent que ça, donc ça arrive rarement sur un long trajet, mais si on vit juste au mauvais endroit, on l’a tout le temps.


Merci :)
Soit ça soit je vis sur une faille temporelle …




Même si c’est souvent un avantage annoncé, je ne vois pas en quoi techniquement ça pourrait mieux marcher que le RDS.


En lieux brouillé, le RDS a du mal. Les auto-radio ont deux solutions avec le RDS:




  • avoir récupéré la liste des fréquences “alternatives” pendant la transmission

  • retrouver la station par son nom



Mais il y a deux/trois problèmes:




  • Les signaux alphanumérique RDS sont très approximatifs si brouillés -> on n’a pas la bonne liste de fréquences, pas tout à fait le bon nom soit au départ soit pendant la recherche

  • Des stations de radio change le nom en fonction de l’émission ou pire, de la chanson –> on ne cherche plus le bon nom (car parfois l’autoradio ne retient pas le nouveau nom, la qualité du signal RDS étant déjà trop mauvaise)

  • Ensuite, il faut maîtriser son autoradio: certains démarrent en suivant seulement un PTY (program type), donc si on écoutait de la musique, il cherche de la musique, pas une station particulière…



Le DAB sera tout numérique, on peut s’attendre à ce que les données soient “justes”. Par ailleurs, beaucoup de DAB sont “double tuner” (même mon radio réveil DAB, acheté fièrement en 2008 il me semble - je peux donc voyager avec, c’est sûr!)

Le 13/10/2021 à 09h 49

Si ça pouvait corriger le “stuttering” sur la FM. Je déteste perdre un mot ou l’entendre 2 fois de suite. Mais ça arrive tout le temps.




Fseg a dit:


tout le monde a pris l’habitude d’écouter les flux des webradios sur smartphone.


Non, pas tout le monde. Parce que ça coupe pendant le trajet (2 fois exactement, quelque soit l’opérateur).

Le 13/10/2021 à 18h 39


David_L a dit:


(parce que si t’enlève les grosses boites des contributions kernel par exemple et que tu gardes que les participations de ceux qui ont un avis à donner, ça fait un sacré trou).


Effectivement: Microsoft, Oracle, IBM/Lenovo (avec une grosse partie optimisation pour le stockage)



Facebook a aussi forcé PHP à s’améliorer pour faire face à l’espèce de fork ultra performant qu’ils avaient.



En tout cas, on sent la convergence entre les technos SSD vers ethernet, les formats de SSD, les solutions très haute perfs et l’optimisation des perfs de solutions existantes, il doit y avoir un goulet d’étranglement sur l’extraction des infos du stockage…

Le 13/10/2021 à 14h 45


KP2 a dit:


Ca me fait toujours mal de voir de tels talents travailler pour des boites d’enfoirés comme FB et Criteo…


C’est pas parce qu’il a du talent que c’est une “bonne personne”. ReiserFS inside. Linus Torvald n’a pas l’air d’être très sympa à cotoyer non plus d’ailleurs, ni Richard Stallman.

Le 13/10/2021 à 11h 30


Soraphirot a dit:


On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.


Un 4C/8T couvre +90% des cas d’utilisation. Surtout avec du cloud, des applis web, etc…
La charge de travail la plus conséquente en CPU, c’est l’antivirus hebdo sur des ordis en SSD.



Bien sûr qu’un monteur vidéo, un modélisateur 3D, il sera aux anges avec un truc à 8C/16T, mais vu que toute une partie des ces logiciels “de niche” est déportée sur la CG, un CPU plus balèze ne fera pas toujours une différence notable non plus.




Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.


Euh, change le :). Un 8250U est sous les 15% à 800MHz avec tout cela (et quand je dis 15, c’est pour te faire plaisir - d’ailleurs en plus j’ai 2 instances SQL server qui tournent).



Mais je plaisante: 25% d’utilisation moyenne ne me dérange pas, c’est d’ailleurs extrêmement rarement atteint sur des serveurs en PME/PMI et plus. La question est surtout: combien de temps passes-tu à 80100%? Quelle part serait améliorée par plus de coeurs? Et si tu as des pics, sont-ils couvert par le temps de boost ou est-ce qu’ils dépassent?




On a tout à gagner à augmenter le nombre de cœurs,


Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.



J’utilise encore des ordis en 2C/4T quotidiennement (i3 6100U notamment), et on fait jusqu’au montage vidéo dessus. Bien sûr le rendu final on le fait plutôt sur une autre machine, mais on a besoin de 1 machine puissante pour combien de machine qui le sont moins?



Et je ne dis pas que c’est inutile, je dis que c’est loin d’être universel ou franchement nécessaire, ou même réellement visible pour nombre d’utilisateurs.



Le multithreading n’a pas attendu d’avoir du multicoeurs pour être utile quand c’est adéquat!

Le 13/10/2021 à 07h 26


David_L a dit:


Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.


Les derniers bench sur Phoronix sont encourageants: plus ou moins les perfs des Intel AMD, avec 2 fois plus de coeurs, mais en consommant la moitié. Certains benchs complètement à l’avantage des ARM, de loin.
Et si on combine avec de nouveaux concepts, le CPU ne sera plus forcément un point primordial (et come je le dis souvent, ce n’est déjà pas souvent un point primordial)



Dans le domaine des BDD, c’est encore très frileux à mettre de l’ARM, mais dans le domaine du serveur Web (frontal et back), ARM n’est plus juste convaincant: il est carrément envisagé (bon, je n’en n’ai pas encore vu, certainement car il reste des doutes sur le support et la viabilité des constructeurs/distributeurs)




David_L a dit:


Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.


C’est clair que Apple a lâché une grosse brique dans la marre. Le problème ne semble plus de trouver de l’IPC pour du x86, mais d’être capable d’intégrer des unités hétérogènes, mettre à disposition assez de données pour saturer les unités. Je lisais que dans les futurs iGPU, Intel utilisera des pages de 64ko au lieu des pages de 4Ko chères (et coûteuses) à nos x86. Intel pousse le oneDNN qui pourra abstraire la complexité des implémentations (sur GPU? AVX-512?) au lieu de jongler en permanence avec les bibliothèques dans python pour passer d’une implémentation à l’autre. Tous envisagent d’ajouter des unités de calcul - sans vraiment avoir un standard.




(quote:60495:Aristide Rutilant)
De nos jours, il faut déjà avoir au moins 6 cœurs physiques pour jouer dans de bonnes conditions


90% des PC ne servent pas à jouer (statistique: de moi-même). Et ceux qui jouent ne jouent pas forcément à ces jeux là (exemple: moi-même aussi).
En pro, Excel parallélise bien mais plein de fichiers ne peuvent être parallélisés correctement au-delà de 6 threads (trop de dépendances). Un ryzen 3600 est généralement totalement inutile en pro, on garde de l’APU, l’antivirus tourne très bien dessus en parallèle des protections RGPD et des applis. On a même des pics à 25% de CPU par tranche de 5 min.



Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien à part:




  • l’édition vidéo

  • le calcul intensif (SIG par exemple)

  • la compilation
    –> la grande majorité des utilisateurs ne profitent que très peu d’avoir 6C/12T.



Le cache est redevenu une bataille importante (d’ailleurs Ryzen a monté les enchère énormément sur ce sujet): Intel, AMD et IBM ont eu des annonces intéressantes dans ce domaine (3D-Vcache de AMD et la cache “virtuelle” de IBM qui transforme le L2 non utilisé d’un coeur en L3 partagé - à la fois une évolution majeure et un risque de fou vu les dernières méthodes d’attaque CPU…)

Le 12/10/2021 à 18h 19

5 ans déjà, mais quand on se refait le film:




  • AMD est revenu en force dans les PC performants (les premiers Ryzen étaient impressionnants mais Intel faisait encore mieux sur de nombreux point)

  • Ensuite AMD a repris la couronne dans quasiment tous les cas sur le moyen et le haut de gamme

  • AMD a aussi reconquis l’entrée de gamme, les APU, bien qu’on en parle assez peu, sont vraiment bien équilibrés (même si la partie graphique fait un plateau)

  • La roadmap est tenue! (coucou Intel avec le 10nm qui a tant été attendu!)

  • Intel poussé dans ses derniers retranchements, le turbo à mort en prenant de gros risque (conso/échauffement) face à AMD dont les Ryzen sont les vrais bulldozers/caterpillars :)

  • Et AMD qui arrive avec des Ryzen pour portables aussi, convaincants au début (mais avec quelques défauts d’autonomie) puis carrément concurrentiels

  • Plus effectivement les threadrippers et les EPYC qui taillent doucement des croupières dans les workstations/serveurs…

  • La PS5 …



Une belle remontada pour qui se rappelle comment on essayait de se convaincre que les générations avant Ryzen étaient des concurrents…



Ceci dit, je continue à penser que non, l’avenir n’est pas à un PC à 20 coeurs 40 threads pour tous à la maison.
Bien que AMD sorte des produits très performants, très intéressants, je crois que la vision d’intel qu’un CPU grand public est plus dans le 4C/8T voire 6C/12T est plus réaliste, les logiciels optimisés pour plus tenant de la niche.



Mais n’empêche bon sang, sacré coup de fouet ces dernières années!

Le 12/10/2021 à 07h 39


fofo9012 a dit:


Je pense que ça peut être une sacrée évolution pour les bases de données in memory (SAP Hana) :


C’est effectivement le travail sur les bases de données actuelles.



Par exemple dans le cas de SQL Server, Ms a travaillé pour que SQL Server gère le mapping mémoire lui-même, se substituant à la gestion mémoire de Windows, ceci afin de ne jamais swapper.



Avec des mémoires lentes et rapides, rien n’empêche de le faire niveau système: la RAM classique et la NV peuvent être dans l’espace d’adressage du système, un système de cache aidant à ne pas lire deux fois ou différer les écritures, sans que le programme sache quelle est la part de RAM et la part de NV.



En fait, j’ai déjà vu cela en 2000, mais avec 2 types de RAM: RAM rapide et RAM lente, sur une silicon graphics qui avait 64CPU et 64Go de RAM: à l’époque 64Go de RAM rapide, ça aurait fait fondre le truc.
L’ordonnanceur utilisait la RAM rapide moitié comme de la RAM, moitié comme de la cache. Pendant un appel pour écrire dans la RAM lente, le temps que la RAM lente donne l’accès, il pouvait encore modifier la copie en RAM rapide et n’écrire que quand la lente était prête.

Le 11/10/2021 à 19h 18


wonderwallbaya a dit:


En quoi un vieux Pentium Dual Core E5200 est incompatible au final ?


Entre le BIOS au lieu de l’UEFI, le non support de certaines technos de virtualisation maintenant bien ancrées dans le système (pour WSL, pour la compatibilité Android aussi j’imagine), l’impact des mesures anti spectre/meltdown (ce qui est dommage, ce CPU étant certainement touché mais ses performances n’auraient pas permis une grosse fuite de données), le non support ou le support bancal de certaines fonctionnalités PCIe, et effectivement quelques instructions récentes… Disons que Ms a maintenu les vieux PC jusque là, parfois plus longtemps que Linux, mais là c’est fini.