Je peut en effet tester si la cam se laisse beurrer les lunettes avec edge en mode ie… Mais il faut que le plugin servi à la première connection s’installe sous edge. Pas certain qu’ils aient poussé l’imitation jusque là.
C’est pas une imitation: c’est bien IE qui tourne, et son affichage est “mappé” dans Edge.
Le
16/06/2021 à
14h
40
yl a dit:
Bref, sur son LAN c’est sans risque et l’utilisateur devrait avoir le choix. J’ai une cam IP Dahua qui est concernée. Si qqun a une astuce pour contourner ce pb, merci d’avance!
Dans le cas de Amazon, c’est effectivement le contraire: quand je vivais dans le 95, les livreurs de ce site étaient quasi irréprochables, voire même très serviables
J4ai demandé à Amazon de blacklister colis privé pour moi - ça a marché quelques mois… Mais ils sont de retour! Et ils n’ont pas changé: ils disent être passé alors que non, voire d’avoir livré le colis alors qu’ils ne le déposent que le lendemain, les cartons sont défoncés, ils n’ont aucune notion d epolitesse, les mecs jettent un oeil PARTOUT en arrivant… Quand on leur dit qu’ils avaient théoriquement livré la veille ils ne s’excusent pas en disant “mon copain … pardon mon collègue ne l’a pas fait? je lui dirai”.
J’ai juste l’impression qu’ils sont en repérage chaque fois qu’ils arrivent…
En fait, je ne commande plus chez Amazon depuis que colis privé est revenu.
OK, donc le prochain Intel aura encore de nouvelles instructions ou un nouveau mode RISC-V en plus du x86 réel, X64, x32, … Le nouveau cpu “crisc” :)
Le modèle sifive semble intéressant, être capable de sortir les puces à la demande. En espérant qu’ils puissent sortir en même temps le noyau linux à la demande.
J’utilise des cartes Risc-V pour m’amuser depuis 1an/1,5 an, et ça marche bien. Ca donne vraiment l’impression qu’il est facile d’y porter quelque chose, là où le support ARM sur d’anciennes carte a pris des mois, si bien qu’au final les cartes étaient utilisables quand les nouvelles sortaient…
Après, le portage RISC-V profite de l’expérience des portages ARM, et il ne faut pas oublier que la plupart des cartes font fi de tout ce qui est protection mémoire.
C’est très difficile à choisir. Chaque fois que je creuse, je trouve une entourloupe (écran en HD au lieu de fullHD, écran en 6bits, dalle délavée le plus souvent). Du coup, j’achète tout d’occas: on a les tests, dans le modèle indiqué. et dans les gammes pro: elles durent longtemps sans soucis.
J’ai deux ordis achetés neufs: un Asus et un Dell 2 en 1. L’Asus est un exemple de l’ordi pas cher (promo à 400€ en 2015): ils semble avoir tout, mais tout est lent - enfin, surtout si on fait deux choses en même temps, et l’écran est bradé. Le dell (en promo normale à 640€ que j’ai eu à 530€, 700€ de base), il a des atouts, mais le clavier est moyen je trouve, le touchpad est pas mal mais loin d’être ce que j’ai chez lenovo et la gestion de la batterie est une blague: la première a tenu a peine 2 ans, la seconde prend le même chemin.
Alors pour de l’utilisation légère/occasionnelle, je trouve qu’un ordi à 600€ c’est très bien, mais si on veut un ordi qui dure ou l’utiliser de façon plus intensive ou dans des conditions variées, ceux un peu plus cher sont meilleurs - et pour longtemps.
Le
08/06/2021 à
15h
40
RedShader a dit:
Il y a des PC à 500€ avec une bonne qualité de fabrication. Pas chère ne signifie pas de mauvaise qualité.
A ce prix là, il faut avoir du bol. Et c’est incomparable avec des PC/macs plus chers. Entre les écrans fades, les coques plastiques, les touchpad moisis et les claviers désagréable, il y a toujours un truc qui cloche à 500€.
Le
08/06/2021 à
11h
15
CostaDelSol a dit:
Avec macOS on utilise un ordinateur sans se poser de question. Avec Windows il faut comprendre comment l’OS fonctionne tellement il y a de choses à gérer.
Tout à fait d’accord. Par contre il faut aller dans le sens d’Apple. Ayant géré un réseau avec des machines Windows, je n’ai pas eu de gros problème avec les KB et AD comme tu le dis (disons que vu le nombre de machines et serveurs administrés, je trouvais que les outils de Ms étaient bien en avance des concurrents niveau centralisation). Par contre j’ai passé un temps FOU à faire marcher iPad, iPhones et consorts avec le réseau Wifi Cisco, et surtout avec les imprimantes… Au point que je considérais en 2017 que Apple avait abandonné le marché des grandes entreprises totalement et vivotait sur le côté “cool” de l’iPhone et de l’iPad.
Idem pour 7Zip ou comme expliqué, cela peut aussi venir de la manière dont les threads sont répartis sur les cœurs physiques/logiques pas d’une mauvaise gestion du //isme.
Je souligne surtout que la machine ARM est “prédictible”: sur tous les graphs, on est très proche du rapport de 1 à 16 pour ARM, contre entre 1 à 15 et 1 à 10 (7zip) pour l’intel.
En gros, si sur x64 multiplier les core par 2 c’est augementer les perfs de 80% en moyenne, il est bon de le savoir.
Le
08/06/2021 à
05h
29
Donc à part en comparant du point de vue énergétique, mais ce ne sont pas des machines pour fermes de rendu 3D…
D’un autre côté, ce sont des machines qu’on attend surtout côté BDD et web, sur des charges qui impliquent du réseau, du disque et un peu de CPU.
On sature peu des Xeon avec un serveur ou de la BDD:
Sur ces types de charges on n’utilise aucune instruction spéciale du Xeon
Les x64 sont de plus en plus plombés par les durée de context switching (et leur nombre est d’autant plus important que l’on zappe entre les IO et le calcul): à cause des différentes attaques, parce que les mécanismes pour les améliorer sont inutilisables et parce que ça s’améliore côté ARM.
Le moyen le plus facile de réduire l’impact des context switch étant d’ajouter des CPU, je pense que les machines ARM de ce type ont une place de choix dans les serveurs Web et d’entreprise du moment qu’elles assurent côté nombre d’IO/s.
L’autre intérêt du bench: on voit bien que le parallélisme de l’ARM est bien plus réussi que celui sur Intel: sur 16 sur Intel, on a souvent 10-14x la perf, plutôt 15x-16x sur l’ARM. C’est extrêmement net 7zip qui s’écrase sur le x64 mis est presque linéaire sur l’ARM. -> Cette linéarité est impressionnante, et d’extrêmement bonne augure: on peut se fier à la montée en charge CPU sur ARM, là où sur x64, une charge supérieur à 75⁄80% risque de faire un effet boule de neige et s’écrouler.
Comme d’habitude avec nvidia, si c’est un problème de pilote proprio qui ne supporte plus ces sock, les distributions ne pourront rien faire de plus…
Pour la tablette shield, NVidia mettait à dispo les pilotes, scripts, doc pour recompiler android AOSP. Si bien que certains on passé leur shield en Android 8⁄8.1.
Il faut dire que Windows est à la base un OS “desktop” et pas fait pour gérer des applications de type serveur.
Windows 2000, option “partage de fichier”, petite case à cocher “optimiser”: 256Mo réservés pour l’OS et les applis, tout le reste pour le cache :) Il fallait savoir où décocher cette fichue option pour récupérer sa RAM :)
. Avec les SSD qui ont pris une place importante, les ordonnanceurs orientés disques magnétiques, qui cherchaient à optimiser en fonction de la géométrie des disques, sont délaissés au profit d’ordonnanceurs qui ne font rien (pas besoin avec un SSD et ses temps d’accès quasi nuls).
Sauf que si on ordonnance les écritures, on évite d’écrire dix fois les mêmes cellules (il me semble qu’on ne peut pas écrire moins de 128Ko sur un SSD, mais nos OS sont en blocs de 4k.
C’est ce que tentent de faire au mieux les ordonnanceurs dont je parle juste avant :-) .
Les cartes contrôleurs je ne sais pas, mais les SAN, c’est souvent du I5 avec un Linux bien paramétré par IBM - donc oui, j’imagine qu’en chinant, on doit pouvoir trouver tout cela sous Linux. Encore faut-il comprendre les phénomènes physiques qui sont induits par des lectures/écritures et les solutions qui existent déjà depuis des années pour les mettre en oeuvre …
Le
01/06/2021 à
06h
01
OlivierJ a dit:
Sous Linux (et pas seulement, Windows aussi même si ça a l’air moins bien géré historiquement), la RAM disponible sert de cache en écriture, et on peut régler le comportement (pourcentage de la mémoire utilisé pour la rétention, durée de rétention, pourcentage à atteindre pour commencer à écrire, etc).
Effectivement, le cache en écriture est actif même sous Windows 10!
Mais il est vachement limité: chez moi il ne monte pas en cas d’écritures aléatoires: on voit qu’il monte puis il s’arrête et là ça ralenti. En plus, dans les compteurs, le nombre d’écriture physique = nombre d’écritures logiques.
Il faudrait un cache un peu moins stupide, qui aggrège les écritures ensemble, les réorganise. Un peu comme les cartes contrôleurs RAID haut de gamme, qui réarrangent le cache pour ne pas écrire deux fois au même endroit, écrire tout en même temps, se caler sur les tailles d’échange des pistes pour déplacer au minimum les têtes au lieu de réécrire plusieurs fois les mêmes endroits parce que 3 octets on changé, le tout sauvegardé par pile en cas de coupure de courant…
Bref, un carte comme celle qu’on avait sur les alpha :) (ou dans les SAN j’imagine, mais là c’est moins précis dans la doc)
Le
31/05/2021 à
14h
18
J’ai vraiment du mal avec le fait que les DD puissent être plus durables. Je pense surtout que caund on plotte, on devrait mettre un max de cache RAM - même pour l’écriture sur un SSD. Hors le cache disque en écriture est désactivé la plupart du temps, et le cache en lecture je ne suis même pas sûr que Windows en mette un sur les SSD par exemple.
Bref, un cache RAM en écriture devrait limiter la casse déjà.
Toute la journée dessus. Incompréhensible qu’il soit si lourd/lent/consommateur…
fofo9012 a dit:
Il manque quand même une prise HDMI, et pourquoi diable s’entêter à mettre des prises USB2, il n’y’a que 6 prises dont une en USB2 et au moins qui va être utilisé H24 comme sortie vidéo et/ou alim c’est ridicule ! Tout le monde n’a pas besoin d’un clavier / souris. Et un clavier fonctionne parfaitement branché sur une prise USB 3 :)
Pour la vidéo, c’est du pro -> Display port. Ca finit 80% des cas avec un adaptateur DP -> VGA ou DP -> HDMI, c’est désolant, mais c’est comme ça. Pour l’USB2, je ne suis pas d’accord. J’ai souvent des problèmes de périphériques incompatibles avec les ports USB3: clé usb, souris, clavier, clé wifi, webcams… Je dois mettre un HUB USB2 entre l’ordi et les périphériques pour que ça marche. Ca a commencé en 2017 avec le premier ordi tout USB3 que j’ai eu, et ça a continué depuis. Ceci dit, je pourrais changer les périphériques concernés. Mais dans le cadre pro, quand tu as un clavier/souris étanche lavable au détergent à 200€ (ou un appareil de mesure à 2500€), et que tu n’as aucun moyen de savoir sans tester si le nouveau modèle fonctionnera sur une prise USB3, la présence de prise USB2 te rassure sur la facture finale.
Le
30/05/2021 à
17h
19
luxian a dit:
C’est con, mais j’avais gonflé direct le PC de ma mère à 8 Go en 2010 puis 16 Go (max accepté par la mobo) en 2017 en passant au SSD …
Elle fait quoi ta mère? Parce que avec un SSD, 4Go sous Linux ça passe crème pour la bureautique, moi j’ai 16Go mais j’ai l’excuse (mauvaise) que je fais un peu de dev à la maison; en fait je ne crois pas que 8 Go me dérangerait…
Par ailleurs, avec le nombre de services en ligne, 8Go de RAM c’est ce qu’il faut et il y a peu de chances que cela évolue beaucoup.
Est- ce que les gens arrivent encore à imaginer c que c’est que 8Go de RAM? Un document bureautique de 20Mo c’est une horreur. Ma page actuelle inpact-hardware affiche quoi: 17000 signes, soit 34ko…
J’espère bien que l’informatique va évoluer dans un sens de l’économie de ressources où un navigateur internet va finir par consommer un peu moins de 63000 fois les données utiles…. :)
Le
30/05/2021 à
17h
10
luxian a dit:
Serait-ce juste un test du marché ? Style, le nuc fixé derrière l’écran marche pas car les gens ont besoin d’avoir un PC sous le nez …
Ne pas oublier le marché des PC planqués: caisses enregistreuses, points de consultation léger dans un stock, affichage et suivi sur écran tactile dans les cabinets dentaires… C’est comme la série des tiny, en plus petit et malheureusement moins extensible, mais moins cher aussi.
Pour rigoler: dans le cabinet d’orthodontie où mes enfants vont, ils utilisent des macs mini pour afficher sur leur écran, et le logiciel tourne sous Windows…
Le
26/05/2021 à
13h
29
Question sans intérêt mais quand même: sur les Lenovo M75q, dans le BIOS, en mode texte, si vous allez dans les menu principaux et appuyez sur Ctrl+Z (ou Ctrl+D, ou Ctrl+W, je ne sais plus), cela active des options supplémentaires comme le contrôle du TDP, l’overclocking RAM et GPU, l’interleave de la RAM, le chiffrement dynamique de la RAM… Est-ce toujours le cas?
Elle n’est pas très claire cette notation. J’aurais plutôt vu: 1-Fortement dégradant pour l’environnement, mais parfaitement utilisable et fonctionnel (pour des années) 2-Fortement dégradant pour l’environnement et globalement utilisable (certainement pour des années mais vous serez lassé bien avant) 3-Fortement dégradant pour l’environnement et absolument inutilisable (vous regretterez votre achat dès la mise en service)
(quote:57343:Yosh’) Les performances risquent d’être terrible (Coucou la surface pro x avec un soc 8cx) C’est l’intention qui compte
C’est assez incroyable: dernièrement, je me suis aperçu que les téléphone nokia lumia sont plus utilisable maintenant que jamais: il y a des applis (pour peu qu’on est passé sous Windows 10 mobile), et ça ne rame pas!
Ms semble avoir fort à faire encore pour “élaguer” Windows 10 “classique” de façon à ce qu’il tourne sur un ARM. Et les développeurs pour ne pas déclencher le chargement de vieilles parties de Windows avec n’importe quelle appli.
Le problème, c’est que vu ce que Microsoft fait ces dernières années comme bourdes avec Office365, Office, je me demande s’ils savent où ils vont et s’ils ont encore des contacts avec des utilisateurs …
On a des vraies machines de guerre aujourd’hui qui ont un nombre de coeurs et une quantité de ram hallucinants, mais pour autant, comme beaucoup de choses tiennent à la conf du mpm_event.conf et du www.conf du fpm, il n’est pas simple je trouve de savoir comment associer l’ensemble pour monter à 5000, 10000, 20000… connexions simultanées
Tu touches à un sujet problématique: les connexions simultanées. La couche TCP/IP a ses limites, et une seule carte réseau avec un seul OS en amont est un vrai goulot d’étranglement si le nombre de CPU est conséquent. Par ailleurs, si ton serveur est derrière un reverse proxy ou autre équipement un peu filtrant, monter ton serveur PHP en perf révéler un autre goulot d’étranglement.
La question n’est pas de savoir quelle performance aurait cette machine en absolu, mais surtout: qu’est-ce qui semble être limitant dans ton infra. Et quel effet boule de neige une augmentation des perfs d’un serveur peut impliquer sur d’autres…
Le
20/05/2021 à
17h
52
zwindler a dit:
Je comprend l’intérêt d’installer Windows 10 dessus pour faciliter les benchs et les tests d’applications grand public pour “voir ce que ça donne”, mais je suis un peu surpris qu’elle marche “bien”.
Comme vu ailleurs : 3990X review on Windows 10 Le scheduler Windows 10 a-t’il évolué? Les applis sont-elles compatibles NUMA? Souvent sur des machines de ce type, on en tire plus profit en la segmentant et en virtualisant, ou alors il faut de soft distribué: il est parfois plus efficace de considérer la machine comme une ferme de 8 machines que de lancer les softs une fois, sur les 128 coeurs.
carbier a dit:
Quel est le prix d’un jouet comme celui la ?
En général le prix de la machine n’est pas le problème. Le prix des licences (calculées la plupart du temps sur le nombre de coeurs ou de threads) est bien plus un problème. Entre VMWare, les licences des OS, des bases de données, des applis métiers, on est généralement sur 3-10 fois le prix du matériel. Le support annuel des softs et du hard (en général, on te fait grâce du support matériel pendant 3 ans, ensuite le prix de la maintenance se rapproche du prix d’une machine) est aussi très sympatique.
Bref, j’adore ce genre de machines (voir les ventilos tourner, les changer à chaud, ainsi que la RAM et parfois les CPU, les alims…) ça te remet en place tout ordi grand public… Mais je suis bien content de ne plus avoir à renouveler du parc matériel pour calculer comment ça se décline en coût soft…
Y’a vraiment rien de visible dans cette 21H1, téléchargée ultra rapidement installée plus vite que certaines mises à jour régulières. Limite un non évènement - ils se sont forcés à l’appeler “21H1”, non?
Le
19/05/2021 à
06h
57
Xanatos a dit:
Merci pour l’info. D’ailleurs, la dernière fois que j’ai voulu créer depuis Debian la clé USB d’installation avec l’ISO de la 20H1 je me suis confronté au soucis de install.esd trop gros pour fat32.
Il me semble que l’outil de Ms formatte la clé en NTFS (mais je n’ai pas mes clés sous la main)
Quand le compilateur voit un lambda qui capture une variable locale, il remplace la déclaration de cette variable locale par une instance d’une classe anonyme dont la variable locale est un champ, et le lambda une méthode membre. …
Excellente explication/démonstration, merci! Je n’avais pas trouvé d’article sur le comment du pourquoi. Et parfait sur l’exemple (le premier que j’ai connu) des for/foreach: ça a effectivement changé depuis C#4.
Cela confirme ce que je pense: ces mécanismes comme la capture ont été ajoutés et font partie d’un paradigme qui s’éloigne énormément du paradigme d’origine. Le problème, c’est qu’il faut être au courant des 2, hors les tutos/vidéos/formation sont pour la plupart basés sur des exemples naïfs du monde des bisounours, mettant en avant un fonctionnement, pas l’amalgame des deux…
on ne s’essaie pas à tout d’un coup, et on se fait toujours avoir plus ou moins par une seule chose à la fois.
En fait, non: comme ils arrivent “formés” C#/CSS/JS/HTML mais ne connaissent pas bien ce qui concerne l’architecture/le déploiement, ils se cassent les dents sur le déploiement en même temps qu’ils découvrent les bugs de la vie réelle. Et là je passe pour leur dire que RIEN en informatique n’est dispo tout le temps et qu’il faut revoir tout le code de gestion des erreurs (déjà tout un thème) Je dirais qu’avant, on détricotait le pull et on avait le fil, là il y a tant de chose qui peuvent se passer en même temps, dans un autre ordre, bagotter, saturer… qu’il faut tout étudier tout de suite. Pour moi la pléthore de langage reflète une chose: l’apparente complexité des langages et bibliothèques actuels. Donc quelqu’un “pond” un nouveau langage révolutionnaire, qui s’avère plein de limitations (les mêmes que les anciens langages à leur début) et 2 ans plus tard il a tout pour être compétitif et on le considère comme les “anciens” langages: trop complexe à maîtriser.
Merci merci merci pour les échanges. Je pense toujours que Rust est une bonne idée (et que JS et python sont des pis-aller), que si autant de langages sortent c’est parce que les anciens langages ont du mal à s’adapter au monde du web et à la parallélisation (de même que les esprits).
Le
18/05/2021 à
20h
59
Inodemus a dit:
Il faut toujours faire très gaffe avec les lambdas, se demander où elles peuvent finir, et quelles sont les variables capturées puisque la capture transforme des variables locales en non locales. Est-ce que c’est plus facile en Rust de ne pas se planter, je ne sais pas, c’est possible.
J’ai tenté de voir comment C# faisait pour ces captures: je n’ai pas compris. Il se comporte comme si la variable étaient maintenue à sa dernière valeur connue avant de quitter la routine, et les threads l’utilisent correctement APRES la sortie. Si je tente de l’écraser avec d’autres appels à des routines, elle n’est pas écrasée - donc la pile n’est pas réutilisée de façon simple comme en C. L’exemple que j’avais mis est trivial, mais résume ce que j’ai du/je dois déboguer parfois mais avec des milliers de lignes entre les deux…
Avec Rust, il est plus difficile de se planter car on doit manuellement pointer une variable. Là vraiment le problème n’est pas d’avoir de lambdas ou des bibliothèques parallélisées, c’est de mélanger cela avec un vieux paradigme. Ca devient ahurissant pour tout le monde le nombre de choses à penser/apprendre/comprendre quand on programme. Perso j’ai commencé il y a longtemps et j’ai appris au fur et à mesure que ça devenait “courant”, je ne sais pas comment font les nouveaux programmeurs. Enfin, en vrai, si, je vois comment ils font: mal.
Mais je reconnais que je comprends bien mieux l’ADA maintenant qu’il y a 20ans quand on me l’a montré :)
Le
18/05/2021 à
13h
02
Inodemus a dit:
Si c’est une structure passée en argument par pointeur, ce n’est pas une variable locale puisqu’elle vient de l’extérieur. Une variable locale c’est une variable déclarée à l’intérieur d’une fonction, elle est crée au début de la fonction et détruite à la fin, et aucun autre code que cette fonction ne peut y accéder à moins que la fonction ne passe son adresse à une autre fonction, chose qu’il ne faut faire que si on est sûr que la deuxième fonction ne va pas garder cette adresse après s’être terminée.
Oui, parce que la variable locale est créée sur la pile, et qu’un fois revenue au niveau de l’appelant, une prochaine routine appelée risque de reprendre cet emplacement mémoire.
Malheureusement, on manipule souvent des types qui sont passés par référence dans la plupart des langages, s’ils sont mutables, c’est risqué. Par ailleurs, certains langages permettent d’enfreindre cette règle très facilement (notamment avec la programmation par “promesses” ou avec des lambdas): les lignes de codes ne sont pas forcément exécutées dans l’ordre dans lequel on les voit.
Exemple en C# (je force le trait);
var i = 0; System.Threading.Tasks.Task.Run(() => { i = i + 1; Console.WriteLine(i); }); i = 1; System.Threading.Tasks.Task.Run(() => { i = i + 1; Console.WriteLine(i); });
System.Console.ReadKey();
Résultat: 2 3
Marrant, non? En plus, le résultat sera vite différent si tu n’a qu’un seul CPU…
Maintenant imagine que dans un code, ces lambdas se balladent partout car la bibliothèque est faite ainsi… Et elle n’est pas mauvaise: simplement avec un paradigme de base issu d’un monde ancien, elle ouvre un peu la boite de Pandore.
A une époque, j’ai fait du fortran parallélisé (64 CPU en 2000). C’était propre, malgré le fait que c’était des ajouts dans le langage: au programmeur de dire avec un pragma s’il voulait que le compilo parallélise un FOR, et quelles étaient les variables constantes. Toute variable non déclarée constante dans la boucle était considérée comme une variable et donc protégée contre les accès concurrentiels.
Le
18/05/2021 à
08h
11
Inodemus a dit:
Ce genre de chose ne peut arriver que pour des variables globales. En C on rajoute volatile pour éviter cette optimisation, mais c’est distinct d’une variable locale modifiable qui est optimisable vu qu’elle ne peut jamais être modifiée de l’extérieur.
Non, pas avec les passages de pointeurs. On peut accéder à une variable via un pointeur direct ou indirect dans une structure. Et avec des éléments de langage comme les lambdas + les outils de parallélisation, on peut aller dans des bugs sympatiques…
Le
17/05/2021 à
12h
54
Inodemus a dit:
Quelqu’un pourrait m’expliquer l’intérêt que les variables soient constantes par défaut dans ce langage ? Dans ce que je programme, il y a rarement plus de constantes que de variables. Du coup je n’y vois qu’un allongement inutile de la syntaxe.
Déclarer ses intentions. Ne pas risquer d’optimiser une valeur qui est variable mais par l’extérieur. Moi j’aime bien. Rust est un langage qui a été étudé en amont, méthodiquement. Pas un pet project sorti à l’arrache non fini comme Javascript et python.
Franchement, ça fait du bien. Rust apporte de vraies solutions aux problèmes réel que sont le multithreading et la sécu par défaut.
De mon expérience, très peu de gens sont capables d’appréhender correctement le multithreading par exemple. Les risque d’effet de bord sont rarement compris. Si on prend les concepts qui ne sont même pas tous de l’optimisation que sont: le calcul réparti, la parallélisation, le multithreading, l’exécution différée par des lambdas ou des promesses, peu de gens voient rapidement poindre les problèmes et le débogage est suffisamment complexe (genre impossible à reproduire le cas de figure en débogage…)
L’ESP est plus destiner à être installer sur un produit finalisé. On est plus dans du pro, semi-pro. C’est le genre de produit que l’on va retrouver dans les solutions IoT commercialisé par des petites startup.
Il y a plein de cartes ESP32 directement compatibles arduino avec des pins. Je suis d’accord avec la légitimité de la comparaison même si la puissance n’est pas la même: un ESP8266/ESP32, c’est déjà un microcontrôlleur intégré et très basse conso!
Pour la consommation dans cette video YouTube, il passe de 60w (8:00) à 30w (10:05). Avoir si c’est une exception ou une généralité.
Forcément, avec des alims de 650W… Les PC pros ont des alims de 150-180W et représente le gros des ventes. Ces PC y gagneront un peu. J’ai essentiellement des PC alimentés avec une alim externe, pas un ne dépasse les 12W à vide à la prise (bureau Windows) - et je dis bien dépasser, ils oscillent autour de 10W en fait.. Un i5 3570K consomme 20W à vide avec un SSD, un disque dur, 8Go de RAM et une GT1030 (alim de 300W 80+).
Pour moi, un autre standard, avec une alim pour l’ordi et une pour les périphériques gourmands (carte graphique, baie de disques) me paraît opportun car ces configs ne représentent pas la majorité des ventes de PC.
Le
17/05/2021 à
08h
24
yl a dit:
Souhaitons juste qu’elle soit fiable, car changer l’alim pour une tension qui merde deviendra changer une mobo…
Je dis comme @Magyar: les VRMs sont déjà sur les cartes mères, c’est maîtrisé. Parfois ce sont eux qui tombent en panne, très souvent non.
Par ailleurs, la plupart des ordis vendus consomment moins de 70W en général (je ne parle pas des ordis de gamer ou de serveurs perso bardés de HDD en RAID chiffré) Exemple: un PC de 2006, Core Duo, utilisé quotidiennement dans un salon de coiffure depuis plusieurs années, alim 105W, ramené ce week-end pour une panne: pile lithium HS… Fonctionne à merveille, tout d’origine.
Par ailleurs, le connecteur ne fournit “que” 216-288W –> les cartes vidéos garderont leur connecteur. Et les disques durs sont en train de disparaître, j’ai tendance à penser que les baies de disque dur seront externes en USB3/Thunderbolt/Ethernet 2.5Gb/s
Enfin, à la carte mère de fournir assez sur le 5V, ce sera donc moins pénible de dimensionner une alim en fonction de la conso estimée rail par rail.
Le
17/05/2021 à
06h
30
xillibit a dit:
Il les faut bien les tensions 3,3V et 5,5V vu que l’électronique de la carte mère et le CPU fonctionne avec ces tensions, donc ça simplifie que le connecteur mais l’électronique de conversion en 3,3V et 5,5V se retrouve sur la carte mère
Il ne doit pas y avoir beaucoup d’électronique en 5V sur une CM. L’USB par exemple alimente en 5V, mais il communique en 3,3. Et justement, l’électronique de conversion est légère pour ces tensions puisqu’il y a assez peu de puissance demandée: c’est surtout de l’électronique de contrôle (sauf pour l’USB qui alimente, donc 10W par 2⁄4 prises en général). D’ailleurs l’USB est un peu bâtard avec l’USB3/USB-C qui peuvent sortir du 20V pour l’alimentation.
L’alim du CPU est plutôt dérivée du 12V pour limiter le courant dans les étages de conversion.
(quote:57111:Idiogène) Tu me diras que la conso est de 10W mais tu sais aussi que les 250W tu ne les atteindra jamais pour tes quelques disques SSD. Donc la config complète te plombe 50W en idle et le moidre calcul un peu gourmand (sur les anciennes génération) déboite tout pareil qu’un PI en proportion.
D’où le choix perso des lenovo tiny/hp prodesk mini/optiplex 30?0 USFF: alim de 65W de portable, RAM de portable, CPU à 35W de TDP. Et qualité pro. Tu en trouves à partir de 100€ d’occas. Jamais eu un problème (et j’en ai 4 à la maison: mon PC perso, le serveur, celui sous la TV, celui sous le projo).
Steez a dit:
C’est sur, mais il faut pas oublier la consommation lié à la RAM, la CM et les disques, qui sera toujours plus important sur une plateforme de type “desktop” qu’avec des NUC ou un RPI.
Pour un NUC, les disques sont les mêmes, et pour tous les NUC que j’ai eus, la RAM est la même (que les tiny). Quand à la conso CM, pas sûr qu’elle soit si important.
10W, c’est bien ce que je mesure à la prise pour un Deskmini X300 avec un 3400G et 16Go de RAM+2 SSD sur le bureau Windows avec l’écran allumé!
Et si le 3400G doit faire le boulot de la raspberry pi 3, la PI a de grosses pointes à 100% et est en gros à 70%, quand le 3400G est à 4-5 et finit bien avant (transferts NAS + Routeur sous Linux) … De même, j’avais un NUC N2820, il avait des ralentissements, quand j’ai mis un NUC 5i5, pour les mêmes travaux, le 5i5 montait à 10-15% maxi et finissait bien plus vite.
Le
11/05/2021 à
16h
58
(quote:57071:Idiogène) Oui mais la consommation/an est largement compensée… crois moi.
Donc, pas d’accord. La RPI à la prise avec un disque USB monte facilement à 3-5W à vide (pertes du transfo, tout ça), et les PC à vide: 10W. Quand à la charge, la RPI monte très vite, le PC ne sent pas passer une charge équivalente.
barbach a dit:
Pour mon serveur Yunohost hébergé actuellement sur un netbook de 10 ans ce serait pas mal.
Les RPI ont toujours un problème avec les échanges disques qui leur force une certaine charge CPU en plus d’être assez “goulot d’étranglement”. Les HP T5740 ave cle port 1gbit et le SATA étaient infiniment plus réactifs et fluides qu’une RPI3 (même d’ailleurs avec le stockage USB).
Nextcloud+BDD+Minecraft (bedrock) x2+filtre proxy+NAS sur un NUC 5i5 2C/4T marchait parfaitement, avec très peu de charge CPU. Les RPI lâchent l’affaire avant (j’ai encore essayé sur ma RPI4 4Go, mais c’est beaucoup moins agréable que le NUC). Et l’intérêt, c’est de pouvoir monter la RAM.
Le
11/05/2021 à
16h
51
tifounon a dit:
Evitons de multipliers le Rpi oui, déjà que ca agace ma femme de voir derrière le meuble télé
D’où les mini PC nuc ou Lenovo tiny, ils ont un facteur WAF évident.
Le
11/05/2021 à
16h
49
Steez a dit:
Surtout quand je compare avec les PC en SFF qu’on peut trouver sur des sites comme Le Bon Coin qui fournisse des prestations largement supérieurs (certes en consommant plus et avec un facteur de forme plus gros que le NUC mais contenues en soit) pour le même prix, voir moins chère.
Pour la conso, elle n’est pas très supérieure. Un NUC 5i5 consommait entre 6 et 9W à vide, un NUC8 consomme plutôt 9-12W. Un I3 6100T consomme en gros 10W à vide (en fait moins sous Linux), tout comme … un AMD 3400G dans un deskmini (mesures perso). Un 9500T consomme entre 8 et 12W (ça oscille pas mal, je soupçonne que des oceurs se mettent en “veille”) En charge: mon ancien N2820 consommait 9-10W en charge (6 à vide) mais ce qui le chargeait à 80⁄100% occupait à peine le 5i5 (moins de 20%), et fait à peine lever un sourcil au 3400G qui monte et finit tellement vite que le wattmère a à peine vu 12W (3%) (ok, il y a du chiffrement là dedans)…
Bref, ne pas confondre le TDP, la conso maxi, et la conso réelle. Quand on utilise des ordis en bureautique, l’autonomie d’un i3, d’un i5 et d’un i7, c’est similaire, car la conso à vide ou à faible charge est très proche.
Et beaucoup de serveurs sont très peu chargés niveau CPU: moins de 15% sur la journée en moyenne pour mon NAS/filtre/serveur minecraft en comptant l’antivirus (si on ne joue pas à minecraft dans la journée)
Le
10/05/2021 à
14h
09
A voir les perfs en cryptage et la RAM maxi. 8Go, c’est déjà bien, mais c’est un frein pour certains qui craignent d’arriver au bout.
Perso je privilégie toujours la gamme i5 mini pour avoir les fonctionnalités de base d’un serveur: virtualisation notamment. Et vu les déboires que j’ai eu dernièrement avec un APU ryzen 5, je reste aussi sur le matos “pro” d’occasion comme les lenovo tiny/optiplex 3040/prodesk mini.
Si c’est pour un serveur basique -> la RPI suffit. Si c’est pour plus, mieux vaut chercher un modèle “complet” que ces SOC plus ou moins maîtrisés/plus ou moins castrés.
C’est bien triste cette politique d’Amazon, ce sont encore les clients qui vont souffrir de cette décision
Vu les trucs nases qui se vendent sur Amazon, sans support réel, qui disparaissent dès que les avis sont trop négatifs pour réapparaître avec des avis positifs tous propres… Le client a déjà souffert
Dans l’absolu, tu as raison, il faut avant d’envisager l’achat d’un hardware vérifier que tout sera parfaitement compatible.
Tout pareil. Là j’ai un portable Lenovo E480, obligé de bidouiller pour qu’il soit stable sous Linux. Un ordi en Ryzen 3400G: pareil, instable.
Par contre, un vieux core solo, un i7 4702, un i5 9500T: que du bonheur.
C’est peu prédictible en fait, et c’est dommage.
J’ai aussi eu (ok, il y a 10 ans) une mise à jour qui a cassé la compatibilité avec mon ordi (HP NC6400).
Bref, j’ai eu plus de soucis avec Linux qu’avec Windows.
Pour freebsd, c’est différent: en gros le système marche sans défaut, mais pas certains périphériques. J’ai donc longtemps été utilisateur de FreeBSD. De toutes façons, ce que j’aime le plus, c’est KDE, donc Bsd ou Linux, c’est pareil pour moi… Mais c’est vrai que le doute subsiste toujours plus avec Linux/BSD qu’avec Windows (malgré les messages sur internet)
Le
05/05/2021 à
17h
26
Krystanos a dit:
A contrario, vu l’usage de l’ordinateur qui est fait majoritairement aujourd’hui (un navigateur), Windows ou Linux c’est pareil…
j’ai beaucoup moins de difficultés à migrer des personnes sur linux en 2020 qu’en 2010… Alors que les usages sont les mêmes. Juste l’écosystème a changé, tout se fait sur internet.
Ca c’est juste: si les utilisateurs sont plutôt axés internet, ça simplifie le problème. C’est ceux un peu plus anciens, qui font des trucs en bureautique ou autre, qu’il faut convertir d’abord niveau applis (quitte à les transposer du coup sur des services en ligne - je ne suis pas fan mais c’est une solution)
Le
05/05/2021 à
13h
33
(quote:1871691:Akhagé) Je ne suis pas d’accord. Pour moi, outre la philosophie du libre, ce sont souvent des logiciels épurés, qui vont droit à l’essentiel et c’est aussi pour ça qu’on les utilise. Si je prends exemple sur des soft comme Sumatra PDF, VLC, Handbrake, Deluge, Foobar ou même un Thunderbird, c’est largement moins usine à gaz au design douteux que les équivalent payants.
Sumatra, OK, les autre ne sont pas moins usine à gaz et surtout: ne le paraissent pas. C’est une question de conduite du changement: quand on passe de Windows 7 à Windows 10, les outils ne changent pas, seul Windows change. Pour passer de Windows à Linux, il faut d’abord passer aux softs Libres sous Windows, puis changer Windows par Linux.
Si on fait tout d’un coup, les gens se bloquent et c’est normal. Il faut se rendre compte du nombre de manipulation “automatiques” que les gens font, et si chacune de ces manipulation redeviennent “conscientes”, c’est très difficile et fatiguant.
Je ne dit pas que c’est plus complexe, je dis juste que ça paraît très complexe.
Le
04/05/2021 à
16h
31
Cumbalero a dit:
J’utilise XFCE au quotidien et depuis fort longtemps.
Pas tenté XFCE depuis très longtemps. Je n’arrivais pas à me débarasser du dock en bas qui mange de la place pour rien. Dommage, il était sympa, mais je préfère KDE plasma. Si c’est pour être minimaliste, j’ai encore un truc genre widowmaker/twm sur un ordi sur lequel je ne suis pas censé être trop souvent en mode graphique.
Le
04/05/2021 à
16h
28
ben51 a dit:
Je disais juste que les gens sont rebutés non pas par les images, mais par le texte: ils doivent s’habituer à d’autres polices. C’est très sérieux! Ce n’est pas légal, mais mettre les polices Windows sur un Linux le rend plus agréable pour les gens: ils s’en moquent que le navigateur soit firefox, du moment que le texte est écrit comme d’habitude. Idem pour les documents libreoffice.
Par ailleurs, les choix de police de KDE habituels par défaut sont un poil trop gros: sur le même ordi, j’en affiche plus sur Windows que sur KDE (légèrement, mais ça compte), et si je baisse la police dans KDE, c’est effectivement moins lisible que sous Windows (mais j’en mets un peu plus). –> C’est complètement du ressenti (mais c’est quotidien: certains softs sont bien, d’autres prennent un place folle (le terminal, le notepad) et je n’arrive pas à trouver la bonne config… Sous Windows, c’est plutôt réussi.
Je n’ai pas essayé Gnome depuis longtemps.
Cumbalero a dit:
J’ai récemment du utiliser Windows 10. J’ai trouvé ça très laid, contre-intuitif à souhait
Mon propos était surtout (et tu vas dans le même sens) que le changement nécessite de s’habituer - mais que la plupart des gens ne veulent pas faire l’effort qui leur paraît démesuré. Qu’ils passent de Windows à Linux ou de Linux à Windows.
Euh… avec Microsoft qui bouleverse tout à chaque sortie d’Office, je me dis que tu trolles. Sérieux le “bandeau” ?
Le bandeau est digéré maintenant: les gens veulent le bandeau! Sous libreoffice aussi quand on leur met! (d’où une préférenc epour onlyoffice qui leur semble plus habituel)
usine à gaz sous prétexte de simplifier des trucs qui ne demandent que 10 minutes de lecture pour être assimilés.
Une personne qui s’intéresse à l’informatique ira peut-être lire. Une personne qui veut juste recevoir des mails, accéder à facebook et imprimer 2 courriers n’en n’a pas envie.
wanou2 a dit:
Sur mon pc linux un fichier sans extension si j’ai le programme pour l’ouvrir il s’ouvrira avec le bon programme. Je ne sais pas par quel miracle mais il le fera.
Mais surtout, les utilisateurs n’ont pas envie de savoir que le nom de fichier doit être unique ou quel nom réel il a sur le FS…
Enfin, je ne vois pas pourquoi copier les mauvaises idées des systèmes actuels (le design de Windows, sans délimitation des boutons/zone interactives, beurk!)
Le
04/05/2021 à
08h
29
Le premier problème quand on présente un bureau Linux, c’est la réaction: “c’est moche”. C’est pas au premier coup d’oeil (les fenêtres sont plaisantes), mais au niveau des polices. On va dire qu’il faut s’y habituer…
Ensuite, c’est la complexité: beaucoup de softs Linux sont pleins d’options. Hors, les gens ont leurs habitudes sous Windows, et la complexité des softs sous Windows a été “digérée”. Quand ils son sous Linux, la somme apparente d’infos à ingurgiter est trop importante.
Sinon, ils n’ont pas compris: ce n’est pas le fichier qui est has been, c’est le nom du fichier. Un fichier devrait pouvoir avoir plusieurs noms, l’extension est inutile pour 95% des cas…
On doit pouvoir monter un PC sans ventilo avec ça (?)
Il existe depuis longtemps des boitier fanless pour NUC. Mais attention, si le fanless est le graal pour certains, il nécessite tout de même que la capacité de refroidissement existe dans l’environnement.
Et au plus simple, ça passe par des torus d’aération et une convection. Le fanless dans ces conditions n’est pas meilleur (voire pire) qu’une conception à ventilateur: la poussière se dépose toujours, et même sur les parties nécessaire au refroidissement. –> il faut toujours nettoyer régulièrement
La solution c’est le fanless quasi étanche avec un caloduc vers l’extérieur et une surface accessible dégagée pour le refroidissement. Pour un ordi, je n’ai vu cela qu’une seule fois (ordi en environnement poussiéreux ET avec projection d’eau).
L’intermédiaire cet le boitier avec des filtres amovibles facilement (exemple: sur mon portable il y a un filtre sur l’entrée d’air du ventilo qui s’enlève par le dessous pour nettoyage).
Et ceci dit, concernant les NUC, le BIOS permet de contrôler finement le ventilo, et ils sont déjà très silencieux par défaut (sur mon N2820, j’entendais à peu près autant le sifflement de l’alim que le ventilo à vide)
Franchement, il y a tellement de sagas différentes que cela en devient pénible à suivre, ne serait-ce que à cause du temps entre 2 films, comme pour les Dr Strange…
Moi j’ai décroché il y a longtemps. C’est sans fin, et souvent sans idée particulièrement intéressante. Bof bof.
3766 commentaires
Windows 11 : la build 21996 en fuite, de premiers éléments décevants
16/06/2021
Le 16/06/2021 à 15h 08
C’est pas une imitation: c’est bien IE qui tourne, et son affichage est “mappé” dans Edge.
Le 16/06/2021 à 14h 40
https://techviral.net/activate-ie-mode-in-edge-browser/
ou carrément Microsoft
Je crois que le fichier est compatible avec Chrome (Chrome entreprise avait cette extension pour lancer IE par onglet selon l’adresse du site)
Colis Privé passe la « première étape de son projet d’introduction en bourse »
15/06/2021
Le 15/06/2021 à 13h 29
J4ai demandé à Amazon de blacklister colis privé pour moi - ça a marché quelques mois… Mais ils sont de retour! Et ils n’ont pas changé: ils disent être passé alors que non, voire d’avoir livré le colis alors qu’ils ne le déposent que le lendemain, les cartons sont défoncés, ils n’ont aucune notion d epolitesse, les mecs jettent un oeil PARTOUT en arrivant… Quand on leur dit qu’ils avaient théoriquement livré la veille ils ne s’excusent pas en disant “mon copain … pardon mon collègue ne l’a pas fait? je lui dirai”.
J’ai juste l’impression qu’ils sont en repérage chaque fois qu’ils arrivent…
En fait, je ne commande plus chez Amazon depuis que colis privé est revenu.
Disques durs : associer graphène et HAMR pourrait multiplier par 10 la densité
15/06/2021
Le 15/06/2021 à 10h 00
Je dirais même plus: des dizaines d’années. Je me rappelle avoir lu des articles dessus dans les années 90.
Rachat de SiFive (RISC-V) : Intel pourrait préparer « le coup d’après »
11/06/2021
Le 11/06/2021 à 13h 25
OK, donc le prochain Intel aura encore de nouvelles instructions ou un nouveau mode RISC-V en plus du x86 réel, X64, x32, … Le nouveau cpu “crisc” :)
Le modèle sifive semble intéressant, être capable de sortir les puces à la demande. En espérant qu’ils puissent sortir en même temps le noyau linux à la demande.
J’utilise des cartes Risc-V pour m’amuser depuis 1an/1,5 an, et ça marche bien. Ca donne vraiment l’impression qu’il est facile d’y porter quelque chose, là où le support ARM sur d’anciennes carte a pris des mois, si bien qu’au final les cartes étaient utilisables quand les nouvelles sortaient…
Après, le portage RISC-V profite de l’expérience des portages ARM, et il ne faut pas oublier que la plupart des cartes font fi de tout ce qui est protection mémoire.
Trois mois avec macOS 11, l’Apple M1 et Rosetta
07/06/2021
Le 08/06/2021 à 18h 45
C’est très difficile à choisir. Chaque fois que je creuse, je trouve une entourloupe (écran en HD au lieu de fullHD, écran en 6bits, dalle délavée le plus souvent). Du coup, j’achète tout d’occas: on a les tests, dans le modèle indiqué. et dans les gammes pro: elles durent longtemps sans soucis.
J’ai deux ordis achetés neufs: un Asus et un Dell 2 en 1. L’Asus est un exemple de l’ordi pas cher (promo à 400€ en 2015): ils semble avoir tout, mais tout est lent - enfin, surtout si on fait deux choses en même temps, et l’écran est bradé.
Le dell (en promo normale à 640€ que j’ai eu à 530€, 700€ de base), il a des atouts, mais le clavier est moyen je trouve, le touchpad est pas mal mais loin d’être ce que j’ai chez lenovo et la gestion de la batterie est une blague: la première a tenu a peine 2 ans, la seconde prend le même chemin.
Alors pour de l’utilisation légère/occasionnelle, je trouve qu’un ordi à 600€ c’est très bien, mais si on veut un ordi qui dure ou l’utiliser de façon plus intensive ou dans des conditions variées, ceux un peu plus cher sont meilleurs - et pour longtemps.
Le 08/06/2021 à 15h 40
A ce prix là, il faut avoir du bol. Et c’est incomparable avec des PC/macs plus chers. Entre les écrans fades, les coques plastiques, les touchpad moisis et les claviers désagréable, il y a toujours un truc qui cloche à 500€.
Le 08/06/2021 à 11h 15
Tout à fait d’accord. Par contre il faut aller dans le sens d’Apple. Ayant géré un réseau avec des machines Windows, je n’ai pas eu de gros problème avec les KB et AD comme tu le dis (disons que vu le nombre de machines et serveurs administrés, je trouvais que les outils de Ms étaient bien en avance des concurrents niveau centralisation).
Par contre j’ai passé un temps FOU à faire marcher iPad, iPhones et consorts avec le réseau Wifi Cisco, et surtout avec les imprimantes…
Au point que je considérais en 2017 que Apple avait abandonné le marché des grandes entreprises totalement et vivotait sur le côté “cool” de l’iPhone et de l’iPad.
Instances Ampere Altra chez Oracle Cloud : quelles performances ?
07/06/2021
Le 08/06/2021 à 11h 32
Je souligne surtout que la machine ARM est “prédictible”: sur tous les graphs, on est très proche du rapport de 1 à 16 pour ARM, contre entre 1 à 15 et 1 à 10 (7zip) pour l’intel.
En gros, si sur x64 multiplier les core par 2 c’est augementer les perfs de 80% en moyenne, il est bon de le savoir.
Le 08/06/2021 à 05h 29
Donc à part en comparant du point de vue énergétique, mais ce ne sont pas des machines pour fermes de rendu 3D…
D’un autre côté, ce sont des machines qu’on attend surtout côté BDD et web, sur des charges qui impliquent du réseau, du disque et un peu de CPU.
On sature peu des Xeon avec un serveur ou de la BDD:
Le moyen le plus facile de réduire l’impact des context switch étant d’ajouter des CPU, je pense que les machines ARM de ce type ont une place de choix dans les serveurs Web et d’entreprise du moment qu’elles assurent côté nombre d’IO/s.
L’autre intérêt du bench: on voit bien que le parallélisme de l’ARM est bien plus réussi que celui sur Intel: sur 16 sur Intel, on a souvent 10-14x la perf, plutôt 15x-16x sur l’ARM.
C’est extrêmement net 7zip qui s’écrase sur le x64 mis est presque linéaire sur l’ARM.
-> Cette linéarité est impressionnante, et d’extrêmement bonne augure: on peut se fier à la montée en charge CPU sur ARM, là où sur x64, une charge supérieur à 75⁄80% risque de faire un effet boule de neige et s’écrouler.
Le récap’ des bons plans du moment, semaine 22
04/06/2021
Le 06/06/2021 à 09h 59
NVIDIA JetPack : la version 4.6 sera la dernière pour les Jetson Nano, TX1 et TX2, la 5.0 en 2022
04/06/2021
Le 04/06/2021 à 11h 27
Pour la tablette shield, NVidia mettait à dispo les pilotes, scripts, doc pour recompiler android AOSP. Si bien que certains on passé leur shield en Android 8⁄8.1.
Les Jetson ne font pas partie de ce programme?
PlotRipper : Sabrent dévoile ses SSD pour Chia Network, jusqu’à 54 000 To d’endurance
31/05/2021
Le 01/06/2021 à 20h 47
Windows 2000, option “partage de fichier”, petite case à cocher “optimiser”: 256Mo réservés pour l’OS et les applis, tout le reste pour le cache :)
Il fallait savoir où décocher cette fichue option pour récupérer sa RAM :)
Sauf que si on ordonnance les écritures, on évite d’écrire dix fois les mêmes cellules (il me semble qu’on ne peut pas écrire moins de 128Ko sur un SSD, mais nos OS sont en blocs de 4k.
Les cartes contrôleurs je ne sais pas, mais les SAN, c’est souvent du I5 avec un Linux bien paramétré par IBM - donc oui, j’imagine qu’en chinant, on doit pouvoir trouver tout cela sous Linux.
Encore faut-il comprendre les phénomènes physiques qui sont induits par des lectures/écritures et les solutions qui existent déjà depuis des années pour les mettre en oeuvre …
Le 01/06/2021 à 06h 01
Effectivement, le cache en écriture est actif même sous Windows 10!
Mais il est vachement limité: chez moi il ne monte pas en cas d’écritures aléatoires: on voit qu’il monte puis il s’arrête et là ça ralenti. En plus, dans les compteurs, le nombre d’écriture physique = nombre d’écritures logiques.
Il faudrait un cache un peu moins stupide, qui aggrège les écritures ensemble, les réorganise.
Un peu comme les cartes contrôleurs RAID haut de gamme, qui réarrangent le cache pour ne pas écrire deux fois au même endroit, écrire tout en même temps, se caler sur les tailles d’échange des pistes pour déplacer au minimum les têtes au lieu de réécrire plusieurs fois les mêmes endroits parce que 3 octets on changé, le tout sauvegardé par pile en cas de coupure de courant…
Bref, un carte comme celle qu’on avait sur les alpha :) (ou dans les SAN j’imagine, mais là c’est moins précis dans la doc)
Le 31/05/2021 à 14h 18
J’ai vraiment du mal avec le fait que les DD puissent être plus durables.
Je pense surtout que caund on plotte, on devrait mettre un max de cache RAM - même pour l’écriture sur un SSD. Hors le cache disque en écriture est désactivé la plupart du temps, et le cache en lecture je ne suis même pas sûr que Windows en mette un sur les SSD par exemple.
Bref, un cache RAM en écriture devrait limiter la casse déjà.
Lenovo ThinkCentre M75n : un Ryzen Pro dans 350 ml, dès 386 euros
26/05/2021
Le 31/05/2021 à 08h 15
Toute la journée dessus. Incompréhensible qu’il soit si lourd/lent/consommateur…
Pour la vidéo, c’est du pro -> Display port. Ca finit 80% des cas avec un adaptateur DP -> VGA ou DP -> HDMI, c’est désolant, mais c’est comme ça.
Pour l’USB2, je ne suis pas d’accord. J’ai souvent des problèmes de périphériques incompatibles avec les ports USB3: clé usb, souris, clavier, clé wifi, webcams… Je dois mettre un HUB USB2 entre l’ordi et les périphériques pour que ça marche.
Ca a commencé en 2017 avec le premier ordi tout USB3 que j’ai eu, et ça a continué depuis.
Ceci dit, je pourrais changer les périphériques concernés. Mais dans le cadre pro, quand tu as un clavier/souris étanche lavable au détergent à 200€ (ou un appareil de mesure à 2500€), et que tu n’as aucun moyen de savoir sans tester si le nouveau modèle fonctionnera sur une prise USB3, la présence de prise USB2 te rassure sur la facture finale.
Le 30/05/2021 à 17h 19
Elle fait quoi ta mère? Parce que avec un SSD, 4Go sous Linux ça passe crème pour la bureautique, moi j’ai 16Go mais j’ai l’excuse (mauvaise) que je fais un peu de dev à la maison; en fait je ne crois pas que 8 Go me dérangerait…
Par ailleurs, avec le nombre de services en ligne, 8Go de RAM c’est ce qu’il faut et il y a peu de chances que cela évolue beaucoup.
Est- ce que les gens arrivent encore à imaginer c que c’est que 8Go de RAM? Un document bureautique de 20Mo c’est une horreur. Ma page actuelle inpact-hardware affiche quoi: 17000 signes, soit 34ko…
J’espère bien que l’informatique va évoluer dans un sens de l’économie de ressources où un navigateur internet va finir par consommer un peu moins de 63000 fois les données utiles…. :)
Le 30/05/2021 à 17h 10
Ne pas oublier le marché des PC planqués: caisses enregistreuses, points de consultation léger dans un stock, affichage et suivi sur écran tactile dans les cabinets dentaires… C’est comme la série des tiny, en plus petit et malheureusement moins extensible, mais moins cher aussi.
Pour rigoler: dans le cabinet d’orthodontie où mes enfants vont, ils utilisent des macs mini pour afficher sur leur écran, et le logiciel tourne sous Windows…
Le 26/05/2021 à 13h 29
Question sans intérêt mais quand même: sur les Lenovo M75q, dans le BIOS, en mode texte, si vous allez dans les menu principaux et appuyez sur Ctrl+Z (ou Ctrl+D, ou Ctrl+W, je ne sais plus), cela active des options supplémentaires comme le contrôle du TDP, l’overclocking RAM et GPU, l’interleave de la RAM, le chiffrement dynamique de la RAM…
Est-ce toujours le cas?
Eco Rating, nouvel indice de « performance environnementale » des smartphones
27/05/2021
Le 28/05/2021 à 07h 35
Elle n’est pas très claire cette notation. J’aurais plutôt vu:
1-Fortement dégradant pour l’environnement, mais parfaitement utilisable et fonctionnel (pour des années)
2-Fortement dégradant pour l’environnement et globalement utilisable (certainement pour des années mais vous serez lassé bien avant)
3-Fortement dégradant pour l’environnement et absolument inutilisable (vous regretterez votre achat dès la mise en service)
Déclaration d’impôts sur les revenus : dernier jour pour les départements 1 à 19
26/05/2021
Le 26/05/2021 à 09h 41
Je l’ai faite hier, c’est sympa les liens vers “oups.gouv.fr” qui tombent en 404 non trouvé… :-)
Qualcomm dévoile son Snapdragon 7c Gen 2 et un kit de développement Windows 10
26/05/2021
Le 26/05/2021 à 08h 12
C’est assez incroyable: dernièrement, je me suis aperçu que les téléphone nokia lumia sont plus utilisable maintenant que jamais: il y a des applis (pour peu qu’on est passé sous Windows 10 mobile), et ça ne rame pas!
Ms semble avoir fort à faire encore pour “élaguer” Windows 10 “classique” de façon à ce qu’il tourne sur un ARM. Et les développeurs pour ne pas déclencher le chargement de vieilles parties de Windows avec n’importe quelle appli.
Le problème, c’est que vu ce que Microsoft fait ces dernières années comme bourdes avec Office365, Office, je me demande s’ils savent où ils vont et s’ils ont encore des contacts avec des utilisateurs …
Chia Network : OVHcloud réagit à son tour
24/05/2021
Le 24/05/2021 à 11h 01
On va ressortir RAMDrive :)
HPE ProLiant DL365 Gen10 Plus v2 : un serveur avec 2x EPYC 7713, à quoi ça ressemble ?
20/05/2021
Le 21/05/2021 à 14h 52
Tu touches à un sujet problématique: les connexions simultanées. La couche TCP/IP a ses limites, et une seule carte réseau avec un seul OS en amont est un vrai goulot d’étranglement si le nombre de CPU est conséquent.
Par ailleurs, si ton serveur est derrière un reverse proxy ou autre équipement un peu filtrant, monter ton serveur PHP en perf révéler un autre goulot d’étranglement.
La question n’est pas de savoir quelle performance aurait cette machine en absolu, mais surtout: qu’est-ce qui semble être limitant dans ton infra. Et quel effet boule de neige une augmentation des perfs d’un serveur peut impliquer sur d’autres…
Le 20/05/2021 à 17h 52
Comme vu ailleurs : 3990X review on Windows 10
Le scheduler Windows 10 a-t’il évolué? Les applis sont-elles compatibles NUMA?
Souvent sur des machines de ce type, on en tire plus profit en la segmentant et en virtualisant, ou alors il faut de soft distribué: il est parfois plus efficace de considérer la machine comme une ferme de 8 machines que de lancer les softs une fois, sur les 128 coeurs.
En général le prix de la machine n’est pas le problème. Le prix des licences (calculées la plupart du temps sur le nombre de coeurs ou de threads) est bien plus un problème.
Entre VMWare, les licences des OS, des bases de données, des applis métiers, on est généralement sur 3-10 fois le prix du matériel.
Le support annuel des softs et du hard (en général, on te fait grâce du support matériel pendant 3 ans, ensuite le prix de la maintenance se rapproche du prix d’une machine) est aussi très sympatique.
Bref, j’adore ce genre de machines (voir les ventilos tourner, les changer à chaud, ainsi que la RAM et parfois les CPU, les alims…) ça te remet en place tout ordi grand public… Mais je suis bien content de ne plus avoir à renouveler du parc matériel pour calculer comment ça se décline en coût soft…
Windows 10 Mai 2021 (21H1) est disponible, comment se mettre à jour
19/05/2021
Le 19/05/2021 à 20h 14
Y’a vraiment rien de visible dans cette 21H1, téléchargée ultra rapidement installée plus vite que certaines mises à jour régulières.
Limite un non évènement - ils se sont forcés à l’appeler “21H1”, non?
Le 19/05/2021 à 06h 57
Il me semble que l’outil de Ms formatte la clé en NTFS (mais je n’ai pas mes clés sous la main)
A mon avis, son PC ne boote pas sur exfat.
Le langage Rust a fêté ses six ans, et tout va très bien
17/05/2021
Le 19/05/2021 à 06h 54
Excellente explication/démonstration, merci! Je n’avais pas trouvé d’article sur le comment du pourquoi. Et parfait sur l’exemple (le premier que j’ai connu) des for/foreach: ça a effectivement changé depuis C#4.
Cela confirme ce que je pense: ces mécanismes comme la capture ont été ajoutés et font partie d’un paradigme qui s’éloigne énormément du paradigme d’origine.
Le problème, c’est qu’il faut être au courant des 2, hors les tutos/vidéos/formation sont pour la plupart basés sur des exemples naïfs du monde des bisounours, mettant en avant un fonctionnement, pas l’amalgame des deux…
En fait, non: comme ils arrivent “formés” C#/CSS/JS/HTML mais ne connaissent pas bien ce qui concerne l’architecture/le déploiement, ils se cassent les dents sur le déploiement en même temps qu’ils découvrent les bugs de la vie réelle.
Et là je passe pour leur dire que RIEN en informatique n’est dispo tout le temps et qu’il faut revoir tout le code de gestion des erreurs (déjà tout un thème)
Je dirais qu’avant, on détricotait le pull et on avait le fil, là il y a tant de chose qui peuvent se passer en même temps, dans un autre ordre, bagotter, saturer… qu’il faut tout étudier tout de suite.
Pour moi la pléthore de langage reflète une chose: l’apparente complexité des langages et bibliothèques actuels. Donc quelqu’un “pond” un nouveau langage révolutionnaire, qui s’avère plein de limitations (les mêmes que les anciens langages à leur début) et 2 ans plus tard il a tout pour être compétitif et on le considère comme les “anciens” langages: trop complexe à maîtriser.
Rooooo! +++
Merci merci merci pour les échanges. Je pense toujours que Rust est une bonne idée (et que JS et python sont des pis-aller), que si autant de langages sortent c’est parce que les anciens langages ont du mal à s’adapter au monde du web et à la parallélisation (de même que les esprits).
Le 18/05/2021 à 20h 59
J’ai tenté de voir comment C# faisait pour ces captures: je n’ai pas compris. Il se comporte comme si la variable étaient maintenue à sa dernière valeur connue avant de quitter la routine, et les threads l’utilisent correctement APRES la sortie. Si je tente de l’écraser avec d’autres appels à des routines, elle n’est pas écrasée - donc la pile n’est pas réutilisée de façon simple comme en C.
L’exemple que j’avais mis est trivial, mais résume ce que j’ai du/je dois déboguer parfois mais avec des milliers de lignes entre les deux…
Avec Rust, il est plus difficile de se planter car on doit manuellement pointer une variable. Là vraiment le problème n’est pas d’avoir de lambdas ou des bibliothèques parallélisées, c’est de mélanger cela avec un vieux paradigme. Ca devient ahurissant pour tout le monde le nombre de choses à penser/apprendre/comprendre quand on programme. Perso j’ai commencé il y a longtemps et j’ai appris au fur et à mesure que ça devenait “courant”, je ne sais pas comment font les nouveaux programmeurs. Enfin, en vrai, si, je vois comment ils font: mal.
Mais je reconnais que je comprends bien mieux l’ADA maintenant qu’il y a 20ans quand on me l’a montré :)
Le 18/05/2021 à 13h 02
Oui, parce que la variable locale est créée sur la pile, et qu’un fois revenue au niveau de l’appelant, une prochaine routine appelée risque de reprendre cet emplacement mémoire.
Malheureusement, on manipule souvent des types qui sont passés par référence dans la plupart des langages, s’ils sont mutables, c’est risqué.
Par ailleurs, certains langages permettent d’enfreindre cette règle très facilement (notamment avec la programmation par “promesses” ou avec des lambdas): les lignes de codes ne sont pas forcément exécutées dans l’ordre dans lequel on les voit.
Exemple en C# (je force le trait);
Résultat:
2
3
Marrant, non? En plus, le résultat sera vite différent si tu n’a qu’un seul CPU…
Maintenant imagine que dans un code, ces lambdas se balladent partout car la bibliothèque est faite ainsi… Et elle n’est pas mauvaise: simplement avec un paradigme de base issu d’un monde ancien, elle ouvre un peu la boite de Pandore.
A une époque, j’ai fait du fortran parallélisé (64 CPU en 2000). C’était propre, malgré le fait que c’était des ajouts dans le langage: au programmeur de dire avec un pragma s’il voulait que le compilo parallélise un FOR, et quelles étaient les variables constantes. Toute variable non déclarée constante dans la boucle était considérée comme une variable et donc protégée contre les accès concurrentiels.
Le 18/05/2021 à 08h 11
Non, pas avec les passages de pointeurs. On peut accéder à une variable via un pointeur direct ou indirect dans une structure. Et avec des éléments de langage comme les lambdas + les outils de parallélisation, on peut aller dans des bugs sympatiques…
Le 17/05/2021 à 12h 54
Déclarer ses intentions. Ne pas risquer d’optimiser une valeur qui est variable mais par l’extérieur.
Moi j’aime bien. Rust est un langage qui a été étudé en amont, méthodiquement. Pas un pet project sorti à l’arrache non fini comme Javascript et python.
Franchement, ça fait du bien. Rust apporte de vraies solutions aux problèmes réel que sont le multithreading et la sécu par défaut.
De mon expérience, très peu de gens sont capables d’appréhender correctement le multithreading par exemple. Les risque d’effet de bord sont rarement compris.
Si on prend les concepts qui ne sont même pas tous de l’optimisation que sont: le calcul réparti, la parallélisation, le multithreading, l’exécution différée par des lambdas ou des promesses, peu de gens voient rapidement poindre les problèmes et le débogage est suffisamment complexe (genre impossible à reproduire le cas de figure en débogage…)
Donc merci Rust de limiter tout cela!
Arduino Connect, Wio mini Dev Board : le Raspberry RP2040 passe au sans fil
18/05/2021
Le 18/05/2021 à 15h 36
Il y a plein de cartes ESP32 directement compatibles arduino avec des pins. Je suis d’accord avec la légitimité de la comparaison même si la puissance n’est pas la même: un ESP8266/ESP32, c’est déjà un microcontrôlleur intégré et très basse conso!
ATX12VO : Intel pourrait généraliser le nouveau connecteur d’alimentation dès Alder Lake-S
17/05/2021
Le 17/05/2021 à 13h 07
Forcément, avec des alims de 650W… Les PC pros ont des alims de 150-180W et représente le gros des ventes. Ces PC y gagneront un peu.
J’ai essentiellement des PC alimentés avec une alim externe, pas un ne dépasse les 12W à vide à la prise (bureau Windows) - et je dis bien dépasser, ils oscillent autour de 10W en fait.. Un i5 3570K consomme 20W à vide avec un SSD, un disque dur, 8Go de RAM et une GT1030 (alim de 300W 80+).
Pour moi, un autre standard, avec une alim pour l’ordi et une pour les périphériques gourmands (carte graphique, baie de disques) me paraît opportun car ces configs ne représentent pas la majorité des ventes de PC.
Le 17/05/2021 à 08h 24
Je dis comme @Magyar: les VRMs sont déjà sur les cartes mères, c’est maîtrisé. Parfois ce sont eux qui tombent en panne, très souvent non.
Par ailleurs, la plupart des ordis vendus consomment moins de 70W en général (je ne parle pas des ordis de gamer ou de serveurs perso bardés de HDD en RAID chiffré)
Exemple: un PC de 2006, Core Duo, utilisé quotidiennement dans un salon de coiffure depuis plusieurs années, alim 105W, ramené ce week-end pour une panne: pile lithium HS… Fonctionne à merveille, tout d’origine.
Par ailleurs, le connecteur ne fournit “que” 216-288W –> les cartes vidéos garderont leur connecteur. Et les disques durs sont en train de disparaître, j’ai tendance à penser que les baies de disque dur seront externes en USB3/Thunderbolt/Ethernet 2.5Gb/s
Enfin, à la carte mère de fournir assez sur le 5V, ce sera donc moins pénible de dimensionner une alim en fonction de la conso estimée rail par rail.
Le 17/05/2021 à 06h 30
Il ne doit pas y avoir beaucoup d’électronique en 5V sur une CM. L’USB par exemple alimente en 5V, mais il communique en 3,3.
Et justement, l’électronique de conversion est légère pour ces tensions puisqu’il y a assez peu de puissance demandée: c’est surtout de l’électronique de contrôle (sauf pour l’USB qui alimente, donc 10W par 2⁄4 prises en général).
D’ailleurs l’USB est un peu bâtard avec l’USB3/USB-C qui peuvent sortir du 20V pour l’alimentation.
L’alim du CPU est plutôt dérivée du 12V pour limiter le courant dans les étages de conversion.
Gigabyte intègre Jasper Lake à ses mini PC BRIX et évoque leurs performances
10/05/2021
Le 17/05/2021 à 06h 39
D’où le choix perso des lenovo tiny/hp prodesk mini/optiplex 30?0 USFF: alim de 65W de portable, RAM de portable, CPU à 35W de TDP. Et qualité pro. Tu en trouves à partir de 100€ d’occas. Jamais eu un problème (et j’en ai 4 à la maison: mon PC perso, le serveur, celui sous la TV, celui sous le projo).
Pour un NUC, les disques sont les mêmes, et pour tous les NUC que j’ai eus, la RAM est la même (que les tiny).
Quand à la conso CM, pas sûr qu’elle soit si important.
10W, c’est bien ce que je mesure à la prise pour un Deskmini X300 avec un 3400G et 16Go de RAM+2 SSD sur le bureau Windows avec l’écran allumé!
Et si le 3400G doit faire le boulot de la raspberry pi 3, la PI a de grosses pointes à 100% et est en gros à 70%, quand le 3400G est à 4-5 et finit bien avant (transferts NAS + Routeur sous Linux) …
De même, j’avais un NUC N2820, il avait des ralentissements, quand j’ai mis un NUC 5i5, pour les mêmes travaux, le 5i5 montait à 10-15% maxi et finissait bien plus vite.
Le 11/05/2021 à 16h 58
Donc, pas d’accord. La RPI à la prise avec un disque USB monte facilement à 3-5W à vide (pertes du transfo, tout ça), et les PC à vide: 10W. Quand à la charge, la RPI monte très vite, le PC ne sent pas passer une charge équivalente.
Les RPI ont toujours un problème avec les échanges disques qui leur force une certaine charge CPU en plus d’être assez “goulot d’étranglement”. Les HP T5740 ave cle port 1gbit et le SATA étaient infiniment plus réactifs et fluides qu’une RPI3 (même d’ailleurs avec le stockage USB).
Nextcloud+BDD+Minecraft (bedrock) x2+filtre proxy+NAS sur un NUC 5i5 2C/4T marchait parfaitement, avec très peu de charge CPU. Les RPI lâchent l’affaire avant (j’ai encore essayé sur ma RPI4 4Go, mais c’est beaucoup moins agréable que le NUC). Et l’intérêt, c’est de pouvoir monter la RAM.
Le 11/05/2021 à 16h 51
D’où les mini PC nuc ou Lenovo tiny, ils ont un facteur WAF évident.
Le 11/05/2021 à 16h 49
Pour la conso, elle n’est pas très supérieure. Un NUC 5i5 consommait entre 6 et 9W à vide, un NUC8 consomme plutôt 9-12W.
Un I3 6100T consomme en gros 10W à vide (en fait moins sous Linux), tout comme … un AMD 3400G dans un deskmini (mesures perso). Un 9500T consomme entre 8 et 12W (ça oscille pas mal, je soupçonne que des oceurs se mettent en “veille”)
En charge: mon ancien N2820 consommait 9-10W en charge (6 à vide) mais ce qui le chargeait à 80⁄100% occupait à peine le 5i5 (moins de 20%), et fait à peine lever un sourcil au 3400G qui monte et finit tellement vite que le wattmère a à peine vu 12W (3%) (ok, il y a du chiffrement là dedans)…
Bref, ne pas confondre le TDP, la conso maxi, et la conso réelle. Quand on utilise des ordis en bureautique, l’autonomie d’un i3, d’un i5 et d’un i7, c’est similaire, car la conso à vide ou à faible charge est très proche.
Et beaucoup de serveurs sont très peu chargés niveau CPU: moins de 15% sur la journée en moyenne pour mon NAS/filtre/serveur minecraft en comptant l’antivirus (si on ne joue pas à minecraft dans la journée)
Le 10/05/2021 à 14h 09
A voir les perfs en cryptage et la RAM maxi. 8Go, c’est déjà bien, mais c’est un frein pour certains qui craignent d’arriver au bout.
Perso je privilégie toujours la gamme i5 mini pour avoir les fonctionnalités de base d’un serveur: virtualisation notamment. Et vu les déboires que j’ai eu dernièrement avec un APU ryzen 5, je reste aussi sur le matos “pro” d’occasion comme les lenovo tiny/optiplex 3040/prodesk mini.
Si c’est pour un serveur basique -> la RPI suffit. Si c’est pour plus, mieux vaut chercher un modèle “complet” que ces SOC plus ou moins maîtrisés/plus ou moins castrés.
Plusieurs marques chinoises disparaissent d’Amazon, dont Aukey
12/05/2021
Le 12/05/2021 à 16h 09
Vu les trucs nases qui se vendent sur Amazon, sans support réel, qui disparaissent dès que les avis sont trop négatifs pour réapparaître avec des avis positifs tous propres… Le client a déjà souffert
elementary OS 6 dévoile de profonds remaniements dans une première bêta
04/05/2021
Le 05/05/2021 à 17h 33
Tout pareil. Là j’ai un portable Lenovo E480, obligé de bidouiller pour qu’il soit stable sous Linux. Un ordi en Ryzen 3400G: pareil, instable.
Par contre, un vieux core solo, un i7 4702, un i5 9500T: que du bonheur.
C’est peu prédictible en fait, et c’est dommage.
J’ai aussi eu (ok, il y a 10 ans) une mise à jour qui a cassé la compatibilité avec mon ordi (HP NC6400).
Bref, j’ai eu plus de soucis avec Linux qu’avec Windows.
Pour freebsd, c’est différent: en gros le système marche sans défaut, mais pas certains périphériques.
J’ai donc longtemps été utilisateur de FreeBSD. De toutes façons, ce que j’aime le plus, c’est KDE, donc Bsd ou Linux, c’est pareil pour moi… Mais c’est vrai que le doute subsiste toujours plus avec Linux/BSD qu’avec Windows (malgré les messages sur internet)
Le 05/05/2021 à 17h 26
Ca c’est juste: si les utilisateurs sont plutôt axés internet, ça simplifie le problème. C’est ceux un peu plus anciens, qui font des trucs en bureautique ou autre, qu’il faut convertir d’abord niveau applis (quitte à les transposer du coup sur des services en ligne - je ne suis pas fan mais c’est une solution)
Le 05/05/2021 à 13h 33
Sumatra, OK, les autre ne sont pas moins usine à gaz et surtout: ne le paraissent pas.
C’est une question de conduite du changement: quand on passe de Windows 7 à Windows 10, les outils ne changent pas, seul Windows change.
Pour passer de Windows à Linux, il faut d’abord passer aux softs Libres sous Windows, puis changer Windows par Linux.
Si on fait tout d’un coup, les gens se bloquent et c’est normal. Il faut se rendre compte du nombre de manipulation “automatiques” que les gens font, et si chacune de ces manipulation redeviennent “conscientes”, c’est très difficile et fatiguant.
Je ne dit pas que c’est plus complexe, je dis juste que ça paraît très complexe.
Le 04/05/2021 à 16h 31
Pas tenté XFCE depuis très longtemps. Je n’arrivais pas à me débarasser du dock en bas qui mange de la place pour rien. Dommage, il était sympa, mais je préfère KDE plasma.
Si c’est pour être minimaliste, j’ai encore un truc genre widowmaker/twm sur un ordi sur lequel je ne suis pas censé être trop souvent en mode graphique.
Le 04/05/2021 à 16h 28
Je disais juste que les gens sont rebutés non pas par les images, mais par le texte: ils doivent s’habituer à d’autres polices.
C’est très sérieux! Ce n’est pas légal, mais mettre les polices Windows sur un Linux le rend plus agréable pour les gens: ils s’en moquent que le navigateur soit firefox, du moment que le texte est écrit comme d’habitude.
Idem pour les documents libreoffice.
Par ailleurs, les choix de police de KDE habituels par défaut sont un poil trop gros: sur le même ordi, j’en affiche plus sur Windows que sur KDE (légèrement, mais ça compte), et si je baisse la police dans KDE, c’est effectivement moins lisible que sous Windows (mais j’en mets un peu plus).
–> C’est complètement du ressenti (mais c’est quotidien: certains softs sont bien, d’autres prennent un place folle (le terminal, le notepad) et je n’arrive pas à trouver la bonne config…
Sous Windows, c’est plutôt réussi.
Je n’ai pas essayé Gnome depuis longtemps.
Mon propos était surtout (et tu vas dans le même sens) que le changement nécessite de s’habituer - mais que la plupart des gens ne veulent pas faire l’effort qui leur paraît démesuré. Qu’ils passent de Windows à Linux ou de Linux à Windows.
Le bandeau est digéré maintenant: les gens veulent le bandeau! Sous libreoffice aussi quand on leur met! (d’où une préférenc epour onlyoffice qui leur semble plus habituel)
Une personne qui s’intéresse à l’informatique ira peut-être lire. Une personne qui veut juste recevoir des mails, accéder à facebook et imprimer 2 courriers n’en n’a pas envie.
Pas un miracle, de la magie: GitHub
Mais surtout, les utilisateurs n’ont pas envie de savoir que le nom de fichier doit être unique ou quel nom réel il a sur le FS…
Enfin, je ne vois pas pourquoi copier les mauvaises idées des systèmes actuels (le design de Windows, sans délimitation des boutons/zone interactives, beurk!)
Le 04/05/2021 à 08h 29
Le premier problème quand on présente un bureau Linux, c’est la réaction: “c’est moche”. C’est pas au premier coup d’oeil (les fenêtres sont plaisantes), mais au niveau des polices.
On va dire qu’il faut s’y habituer…
Ensuite, c’est la complexité: beaucoup de softs Linux sont pleins d’options. Hors, les gens ont leurs habitudes sous Windows, et la complexité des softs sous Windows a été “digérée”. Quand ils son sous Linux, la somme apparente d’infos à ingurgiter est trop importante.
Sinon, ils n’ont pas compris: ce n’est pas le fichier qui est has been, c’est le nom du fichier. Un fichier devrait pouvoir avoir plusieurs noms, l’extension est inutile pour 95% des cas…
Intel NUC 11 : Jasper Lake arrive dans les mini PC
04/05/2021
Le 05/05/2021 à 11h 17
Il existe depuis longtemps des boitier fanless pour NUC. Mais attention, si le fanless est le graal pour certains, il nécessite tout de même que la capacité de refroidissement existe dans l’environnement.
Et au plus simple, ça passe par des torus d’aération et une convection. Le fanless dans ces conditions n’est pas meilleur (voire pire) qu’une conception à ventilateur: la poussière se dépose toujours, et même sur les parties nécessaire au refroidissement.
–> il faut toujours nettoyer régulièrement
La solution c’est le fanless quasi étanche avec un caloduc vers l’extérieur et une surface accessible dégagée pour le refroidissement. Pour un ordi, je n’ai vu cela qu’une seule fois (ordi en environnement poussiéreux ET avec projection d’eau).
L’intermédiaire cet le boitier avec des filtres amovibles facilement (exemple: sur mon portable il y a un filtre sur l’entrée d’air du ventilo qui s’enlève par le dessous pour nettoyage).
Et ceci dit, concernant les NUC, le BIOS permet de contrôler finement le ventilo, et ils sont déjà très silencieux par défaut (sur mon N2820, j’entendais à peu près autant le sifflement de l’alim que le ventilo à vide)
Marvel évoque son plan de bataille 2022 et 2023 au cinéma
04/05/2021
Le 04/05/2021 à 08h 42
Moi j’ai décroché il y a longtemps. C’est sans fin, et souvent sans idée particulièrement intéressante.
Bof bof.