votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3767 commentaires

Le 31/08/2021 à 08h 12


(quote:1892872:le hollandais volant)
Sous Linux, toutes les données de config des programmes ou du bureau sont dans le dossier personne (un peu comme le AppData de Windows), et je conserve ça sur une partition (le /home) qui reste quand je fais une réinstall de l’OS.


Oui, le ~/ c’est pratique sous Unix. Par contre il faut restaurer les mêmes applis dans la même version et le système comme il était, sinon effectivement on passe son temps à corriger des trucs cachés dans les fichiers .quelquechose




Baldurien a dit:


Je fais un bon gros 7z de %USERPROFILE%, que je restaure manuellement.


Comme je sauvegarde les fichiers de tout le monde au même endroit et que certains fichiers volumineux sont copiés (photos et vidéos de famille par exemple) –> ça me permet de dédupliquer, donc pas de compression.



J’ai aussi utilisé un moment https://backuppc.github.io/backuppc/ que je recommande toujours - mais il était moins userfriendly, donc j’ai craqué.



Le problème de l’historique des fichiers Windows, c’est qu’il fonctionne sous le login de l’utilisateur. Ce qui signifie qu’un malware banal pourrait corrompre tout ce qui est dans le partage.
-> Les logiciels qui tournent sous un autre login dédié sauvegarde, ça permet de mettre le répertoire de sauvegarde en lecture seule pour l’utilisateur.



Mais bon, l’historique des fichiers, c’est pas une sauvegarde. J’ai ma sauvegarde en plus du “NAS”.

Le 31/08/2021 à 07h 27

J’utilise l’historique des fichiers vers le NAS depuis Windows 8.



Toute la famille est contente de pouvoir repartir en arrière sur les anciennes versions ou récupérer les fichiers supprimés un peu vite…



Mais sincèrement je ne sais pas le restaurer après réinstallation de l’ordi. Je fouille dedans et renomme les fichiers… Je restaure à grand coups de powershell en faisant le tri pendant des heures.



Et tout ce qui est dans Appdata est perdu … Donc j’ai une sauvegarde à part pour les mails.

Le 31/08/2021 à 07h 43


Wax a dit:


Le script en question mesure quantifie la vitesse des flux de sortie de logiciels de compression, en monotâche, puis en 2 threads, 3, 4, etc, et ça permet de facilement évaluer la puissance de traitement, mais aussi d’évaluer la scalabilité multiprocesseur.


Le script est intéressant pour la compression, mais il y a beaucoup d’autres charges de travail possibles. Et les benchs sont surtout intéressants si tu peux comparer ton utilisation à l’un des benchs.
Je préfère le site openbenchmarking, qui donne des infos sur des charges de travail en BDD, en FS, en compression, quand on connait sa charge estimée, on peut se faire une idée.



Si on regarde sur les SBC, la charge CPU est maintenant suffisamment faible pour le “fond de panier” pour que ce qui importe est uniquement les capacités média ou autres selon utilisation.



J’ai deux cartes RISC: une maix et une loongson. La maix est pas mal mais elle consomme quand même du fait des unités présentes, et reste limitée côté perfs, la loongson consomme (très) peu, a une sacré patate face aux concurrents (Cortex-m0) mais je n’en n’ai pas l’utilité vu les autres limitations (RAM notamment).



Pour ces deux cartes, on est encore aux démos, en-dessous de ce qu’était la RPI à sa sortie (2012? déjà?)



Les CPU/MCU RISC vendus pas cher sont très simple, sans “fioritures” comme le cache, le MMU, … ce qui les rends comparables aux processeurs des années 80 dans leur conception en fait. Ce qu’on attend, ce sont les CPU comme ceux de cette carte avec un peu plus d’optimisations (OOE, Cache, pipelines, …)



Finalement, le coeur du CPU est simplifié pour RISC, mais il ne peut pas se hisser aux niveau des derniers ARM/Intel/AMD sans ajouter l’énorme complexité et la pléthore de transistors qui gravitent autour des unités de calculs.

Le 30/08/2021 à 20h 17


OB a dit:


Ce n’est pas du tout le même usage mais je me suis procuré un kit Maixduino, également à base de Risc-V mais beaucoup plus petit : Le K210. On le trouve autour de 20€ avec la caméra & l’écran.
Linux ne fonctionne pas dessus (c’est plutôt un microcontrôleur) mais ça reste infiniment plus puissant qu’un arduino et permet de tester plein de chose - et découvrir le risc-v :-)


J’ai un maixbit (même base) depuis environ 1 an (mince, 1 an 12 déjà…) mais c’est surtout la partie AI qui est intéressante.



Cherche ici github.com GitHubpour les sources de Linux et ici https://dl.sipeed.com/shareURL/MAIX/K210_Linux/Firmware pour les ressources des cartes Maix. Tu peux aussi compiler ta “distribution” chez toi ou la faire compiler chez eux (si tu arrives à passer l’épreuve du captcha en chinois)

Le 31/08/2021 à 06h 24


OlivierJ a dit:


J’ai utilisé VMS, pour info.


Mais tu n’as pas vécu/pas compris les problèmes de ODS-2 concernant les répertoires qui ne pouvaient être que d’un seul bloc contigu alloué au départ?



Ca illustre très bien la fragmentation, et pourquoi ext2 (qui marrie des idées de ODFS2 comme répartir les “allocations” sur le disque et FAT avec son côté “dynamique”, comme BSD-FFS)




Je demande toujours à voir (et vu ce qu’a dit Luxian, d’après un thésard pas franchement, ce qui ne m’étonne pas, ou alors cas pathologique).


Ca pathologique, ça marche. Ca marche aussi sur les fichiers de SQL Server, sur les fichiers de backup, les fichiers de outlook…




Tu rêves complètement. Je veux une source sérieuse pour cette affirmation. Windows 3.1 n’avait aucune protection mémoire, donc aucune mémoire virtuelle.


Le MMU et les mémoire virtuelle c’est différent. Comme la mémoire virtuelle et le SWAP.
Windows 3.1 avait un fichier de SWAP, et System.ini avait des paramètres (dont paging=on, paging=off)




Pour tes 2 phrases, non. Pour la 1ère, ça fragmente toujours un peu. Pour la 2e, il n’y a rien de tel que “chaque processus travaille dans son coin du disque”, même si c’était le cas ça ne changerait pas la possibilité de fragmentation ou pas.
Récrire dans la FAT, ça n’est pas ça qui cause de la fragmentation, pour le coup.


Pour le 1, bien sûr, pour le 2, et la FAT, c’était concernant la question de “ramer”. La tête en plus de la fragmentation faisait beaucoup de déplacements en FAT. C’est moins le cas en NTFS je crois.




OlivierJ a dit:


Je reste un peu scié par l’ignorance de beaucoup de gens dans l’informatique sur ce qui existe hors du monde Windows, sur des principes déjà anciens en informatique (comme la mémoire virtuelle et la protection mémoire, le chargement à la demande)


Le 30/08/2021 à 20h 23


fred42 a dit:


J’ai bien un e4defrag, mais qui ne fonctionne pas sur un filesystem ext3, donc je ne peut pas tester même pour mesurer la fragmentation.


C’est fsck qui t’annonce la fragmentation, uniquement sur partition non montée.
Après, sur SSD, aucun intérêt.



Sinon, une petite ressource https://www.linux-magazine.com/Online/Features/Defragmenting-Linux



Les fichiers de log tendent à être fragmentés (sauf si la rotation est suffisante), ceux des BDD, le reste, c’est marginal. Si on avait pu dire à windows où placer un fichier… Après, on pouvait défragmenter fichier par fichier ou répertoire par répertoire avec contig (bien plus intelligent que de faire un defrag complet)

Le 30/08/2021 à 18h 32


OlivierJ a dit:


Honnêtement ça m’a toujours scié (et ça a toujours fait rigoler les non-windowsiens) ces histoires de défragmenteurs, le truc qui ne devrait même pas exister, à l’époque où les autres OS sérieux n’avaient pas ça.


C’est un principe qui était encore pire sur OpenVMS (les répertoire pouvant être “pleins” sans que le disque le soit). Dire que OpenVMS n’est pas sérieux… c’était un OS bien en avance sur tout ce qui était de la duplication de noeud, du clustering.




Je me demande si des gens ont fait des benchmarks à une époque, pour montrer que ça avait vraiment une différence importante, la défragmentation (et pas 10 % de différence à l’usage).


Il ne fallait pas le lancer tout le temps. Mais sur un poste non défragmenté depuis quelques mois et utilisé quotidiennement, c’était très efficace.




Je suis extrêmement dubitatif sur ton histoire, à l’époque des PC Windows avec 4 Mo de RAM, on n’avait pas de mémoire virtuelle, les programmes étaient chargés entièrement en mémoire.


La mémoire virtuelle et le swap (car ce n’est pas la même chose), on l’avait dans Windows 3.1.
Quand à charger des EXE qui ne passent pas en RAM, le DOS le permettait (mais il fallait que le programmeur le prenne en charge -ce qui n’était pas évident ave cles environnement de dev en C ou Pascal)




:mad2: Personne de sensé ne défragmente un ext2, je ne connais aucun linuxien (amateur ou pro) qui sait faire ça, de toutes façons. Je ne sais même pas quel outil utiliser.


defrag?




Déjà, un linux ne se met pas à ramer avec le temps, parce qu’il n’y a effectivement pas de souci lié à la fragmentation, qui reste faible en pratique.


Voilà. Sauf utilisation extrême, avec un disque saturé, ça ne fragmente pas. De plus, la structure du FS est meilleure, permettant à chaque process de travailler dans son coin du disque, là où sous Windows il fallait (au début) tout réécrire sur les tables de FAT + leur copie…

Le 29/08/2021 à 18h 40


luxian a dit:


Exactement ! C’était du troll de Linuxien de dire que l’ext2 n’avait pas besoin de se défragmenter, comme la NTFS à sa sortie. Mais la défragmentation est tellement moins “probante” que sous Windows,


Oui, visiblement car Linux avait la bonne idée de réserver de la place après chaque fichier. Comme cela, quand il s’étendait, il commençait juste après le fichier.
De même en FAT32 sur gros disque, à part la place perdue, on constatait que la défragmentation allait plus vite … parce que aucun fichier de moins de 32 ou 64k ne pouvait être fragmenté!
Et défragmenter tout le temps augmentait la fragmentation, puisque les fichiers de log, le répertoire temp, … rien n’avait de place pour écrire.
On comprend mieux la fragmentation quand on touche à d’autres OS où quand on crée un fichier, on doit/peut indiquer la taille des extensions, si elles doivent être contigües, le maximum de morceaux du fichier…



Et effectivement, depuis les SSD et les SAN, la défragmentation n’a plus de sens.




(quote:1892628:Trit’)
Oui, enfin, faut arrêter de répéter les tutos débiles qui étaient déjà pourris à l’époque de Windows 98… Surtout aujourd’hui, où Windows est désormais parfaitement capable de gérer son fichier d’échange tout seul comme un grand.


Non, je rejoins luxian. Fixer au moins la taille maxi de son fichier d’échange était important. Et il le reste peut-être, sauf que avec la RAM et les disques qu’on a maintenant, on a moins de risques que tout s’emballe (mais j’ai déjà dû réduire un swap de plus de 60Go sur un serveur - merci les applis pourries)

Le 29/08/2021 à 13h 14


Mihashi a dit:


Sous XP, les zones de swap sur le disque était visible dans l’outil de défragmentation, et elles étaient fixes.


Oui, il fallait les défragmenter avec un outil sysinternals. C’était dû au swap dynamique: quand un soft “s’emballait”, il pouvait allouer et allouer de la mémoire. la swap augmentait par morceux, à droite, à gauche… Parfois jusqu’à la fin du disque…




OlivierJ a dit:


A noter que sous Linux, on n’a pas de souci de fragmentation.


Légende… On peut très bien défragmenter un e2fs, il faut même parfois le faire. Seulement pour cela il faut le garder longtemps, longtemps.
Peut-être que l’utilisation même de Linux menait à moins de fragementation, je ne sais pas.
Sous Window,s le gros problème, c’est ce fichu défragmenteur disque qui passait son temps à tout mettre au début du disque. Certains autres défragmenteurs répartissaient l’espace libre pour qu’il y en ai à la fin des répertoires ou de gros fichiers qui changeaient -> c’était là une excellente pratique.




Ça n’a aucun sens ta dernière phrase.e la mémoire sont mise sur le swap en fonction des besoins (un autre programme demande suffisamment de mémoire et les zones mémoires non accédées récemment sont “swappées”).


Pas tout à fait. C’est le schéma “standard” d’allocation sur la pile. Mais on va plus loin: docs.microsoft.com Microsoft



Tu peux allouer de la RAM qui ne sera consommée qu’à l’écriture, allouer avec seulement quelques pages dispos en RAM et tout le reste réservé sur le swap (comme les fameux mmap qui manquaient à BeOS)… Tout cela très similaire à ce que OpenVMS proposait. Linux a aussi ce genre de mécanismes.



Les “vieux” softs, de l’époque ou la RAM coutait tellement cher que l’on manipulait des fichiers qui ne tenaient pas en RAM l’utilisaient beaucoup.
Exemple: sur un PC avec 4Mo de RAM, Windows pouvait lancer Word (fichier exe de 8Mo) sans swapper (mais en réservant un espace de swap)… Les mécanismes de chargement des exe étaient “aware” sur ce point.



BSD avait aussi des petits principes du genre: sur certains, chaque processus lancé était réservé en SWAP, de sorte que contrairement à Linux et Windows ou la swap était une “extension”, sous BSD c’était plus proche de la “mémoire totale” du système.

Le 27/08/2021 à 21h 12


luxian a dit:



Haaa, je comprends mieux pourquoi sous Win98 comme sous NT4 j’arrrivai à provoquer un gel puis un écran bleu de NT4 en bougeant la souris d’une certaine façon comme un taré, plus de 20 ans après ! Le swap en dur est toujours mieux que le swap en file car tu n’a pas à défragmenter.


Planter NT4 avec la souri, faut pas exagérer, il y a un problème matériel là. (remarque, le matériel de l’époque n’était pas aussi fiable que maintenant, les chipset étaient bourrés de bugs basiques).
Le swap en dur sous Windows, quasi obligatoire pour éviter un écroulement complet du système avec saturation du disque.
Le problème, c’était que Linux mangeait de la partition, et on n’en avait pas beaucoup de dispo. D’où les RACK échangeable pour les disques systèmes ou la disquette de boot juste pour amorcer l’ordi depuis l’autre disque.




serpolet a dit:


Et pourtant, le Moniteur Système m’indique 1 GiB de Swap dispo, et le PC swappe un peu (4 MiB en ce moment…) Est-ce du Swap comme sous Windows (sans partition dédiée) ?


Linux permet maintenant d’avoir un swap sur le FS.
Pourquoi il réapparaît, je ne sais pas, mais le swap n’est pas uniquement piloté par le système (en tout ca sous Windows): des applis réclament le swap, c’est le cas de plusieurs antivirus pour minimiser leur empreinte en mémoire privée. En gros, ils allouent du swap pour garantir que leur fonctionnement par défaut est d’être hors RAM.



Peut-ête que ça existe aussi sous Linux (en tout cas, ça existe aussi sous VMS).

Le 27/08/2021 à 15h 44


luxian a dit:


T’as fait top -d 0 et le fameux “while (1) fork();” pour voir un jour ?


Pas volontairement :) Mais j’ai déjà fait un truc qui forkait à chaque paquet réseau au lieu de forker à chaque connection établie …



Sous BSD, la limite de processus était en dur dans le kernel, sous Linux soit c’était dynamique, soit la limite était bien plus haute …



Fin 90/début 2000, ce qui me fascinait avec BSD et Linux, c’était la préservation de ressources pour le premier plan. Sous Linux/BSD, je pouvais lancer des compilations, de l’encodage ou un rendu 3D: ça ralentissait, mais ça ne devenait jamais vraiment lourd.



Sous Windows, la sentence était terrible: souris qui rame, clique qui sont reconnus des secondes plus tard…



Les perfs étaient souvent meilleures sous Windows, mais difficile de faire quelque chose en plus si on avait un rendu POV en arrière plan (et non, ce n’était pas à cause du swap). C’était particulièrement visible avec les souris, car à l’époque on voyait l’impact CPU de bouger vite la souris (si si! le décodage souris passait par le CPU!)



Par contre, la partition de swap en dur ça m’a toujours agacé.

Le 27/08/2021 à 12h 30


luxian a dit:


Donc non … 4 Mo, on pouvait avoir son PC sous Linux, compiler, lancer Xemacs pour poursuivre son projet d’étudiant avec les 3 compilateurs cobol, C, ADA installés …).


Moi c’était trop instable (pas dans le genre plantage, dans le genre “out of memory” permanent. Mais l’architecture même de X était en cause!



Mais rahhh… Widowmaker … L’environnement NExt. J’ai toujours adoré.




(quote:1892407:alex.d.)
Par rapport à un System/370, je maintiens : le PC, c’est du low cost du point de vue d’IBM. En tout cas, il était considéré comme tel par les gens que je connaissais chez IBM France.


Pas trop du point de vue des clients potentiels :)




Amiga et Atari ST n’existaient pas en 1981.
Certes, mais tout le monde préparait son ordi “pro”. Les dragon32 qui sortaient en 82, les atari 400 et autres … Le lecteur de disquette était un argument plus “pro” que “gamer” (surtout que beaucoup d’ordi avaient des cartouche pour ça).
Le segment pro était l’avenir, l’el dorado. IBM (surtout avec son I) ne pouvait pas se laisser distancer (surtout que côté mainframe arrivait des concurrents plus petits comme les VAX)


On oublie parfois que nos ordis sont des “micro” ordinateurs: des modèles rikiki face à ce qui se faisait pré-1980. Mais qui ont évincé les mainframes.

Le 27/08/2021 à 09h 45


fofo9012 a dit:


Pour IBM, le PC de 80 était de l’ultra low cost.



Techniquement au début, le PC malgré son nom a surtout été vendu aux pros, car il remplaçait avantageusement le terminal et évitait d’avoir un étage réservé au mainframe correspondant.


Ultra low cost: non, absolument pas. Le PC était cher et donc réservé aux pros.



Par contre, tu as raison sur le fait que le PC est arrivé au moment ou la puissance de calcul est passé du mainframe au poste de travail. IBM a du se sentir menacé.



N’oublions pas qu’à l’époque, et malgré la “scission” pro/grand public, une bonne partie des ordis “sérieux” (donc or ZX81, clairement grand public) qui sortaient avaient une petite ambition pro. AMIGA, Atari ST n’étaient PAS des machines purement de jeu. Sinclair a tenté de sortir un ordi pro. Certains ont effectivement travaillé avec des Apple ][.



Le ZX81, il avait quand même la même conception qu’un calculatrice: le CPU s’occupait même de l’affichage. Et son prédécesseur était vendu en kit à souder soit même. Les deux par correspondance. Pas vraiment pro ce modèle effectivement :)




yl a dit:


De toutes manières, j’ai toujours pensé que quand IBM a spécifié l’architecture ouverte du PC ils étaient parfaitement conscients que dès lors qu’il y aurait le premier x86 gérant la mémoire …
C’est sans doute la raison pour laquelle ils ont choisi l’OS le plus mal branlé qui ait alors existé

Cela a fonctionné jusqu’à ce que la tambouille d’un certain Linus prenne: La victoire de la boite blanche contre la boite noire est désormais globalement là, sauf chez le particulier.


Tu refais l’histoire. Comme dit plus haut, l’informatique prenait un tournant (l’inverse de l’actuel: on passait d’un calcul centralisé à des calculs locaux). IBM a voulu faire du time to market: il fallait sortir rapidement quelque chose (d’où DOS, certainement moins cher que CP/M et UNIX j’imagine), et innonder le marché (d’où l’ouverture aux clones) en rassurant (un standard au lieu d’avoir un fractionnement).
Et non, ce n’est pas la qualité qui prime, c’est le prix. Car OS/2 étaient un très bon OS, mais trop cher. Windows a pris à cause du marketing et du prix, Linux … en grande partie aussi grâce à son prix… (ce qui n’en n’enlève pas ses qualités)

Le 26/08/2021 à 19h 49


Citan666 a dit:


Ce qui n’est d’ailleurs pas étranger à mon sens à la résistance qu’il y a eu face à systemd ou aux nouveaux paradigmes de gestion d’infra avec puppet et compagnie (qui simplifient partiellement mais déportent une partie de la complexité malgré tout)


Je comprends ton point de vue, mais derrière la “nouveauté”, il y a souvent un principe: la durée d’apprentissage.



C’est surtout dans les langages et les bibliothèques tierces qu’on le voit, mais on l’a vu pendant l’apparition de systemd: un groupe de personnes trouve le système trop compliqué, et en propose un nouveau plus simple… mais qui ne couvre pas fonctionnellement tous les cas (au début, systemd avait de bonnes idées mais n’implémentait pas tout ce qui existait - je n’ai plus les cas en tête mais j’y ai été confronté).
Au bout de quelques années de développement, le système final est au moins aussi complexe que le précédent, et du coup, un nouveau émerge…
Au final, les “nouvelles” technos accompagnent la formation et la prise d’expérience d’une génération. Bien sûr, elles apportent par-ci ou par là des nouveautés, mais rien de révolutionnaire. Et bien sûr, certaines sortent du lot.

Le 26/08/2021 à 14h 34


Cumbalero a dit:


Je n’avais pas le souvenir d’avoir eu 8Mo en 1995, et pourtant le lançais XWindows.


Le lancer, oui, et encore avec au mieux TWM. L’utiliser … pour xterm OK, mais il n’y avait plus de RAM dispo ensuite… Il faut bien dire que sur 4Mo de RAM, avec le serveur X qui avait les bitmaps en mémoire et le client X qui en avait une copie sur la même machine, on ne risquait pas de faire du graphisme à outrance en 800x600x32…




Ce qui est le cas sur tous les OS.


Ce que je souligne, c’est que c’est lié à la politique de la distro. J’avais l’impression dans les commentaires qu’il y avait une confusion entre Linux et les distros. Pour moi, on peut comparer Linux à Windows Core, pas à Windows.




Là encore ça n’a rien de propre à Linux. Quel que soit l’OS, le stockage c’est un métier, comme celui de DBA.


Idem. Les gens ont tendance à dire qu’ils connaissent Linux, alors qu’ils connaissent une distro, un outil…



Je connaissais un peu Linux (le noyau) fin 99/début 2000 (époque où je jalousais ceux qui avaient pu s’acheter la seule carte mère bi CPU grand public dispo et jouaient avec le SMP sous BeOS ou Linux), parce que je “travaillais” sur un pilote de carte son (sous BeOS) et sur un soft pour configurer le MIDI (sous Linux et sous BeOS). J’ai bien appris la différence entre kernel et userland :)



Je critique surtout “Linux” dans le sens “toutes les distros confondues” que je compare du coup plutôt à FreeBSD que je préfère de loin dans ce cadre.
Par contre quand il est question de Linux en tant que noyau++, base d’une chaîne pour une appliance, j’aime bien (Tiny Core Linux, ou alors les noyaux sur les petites cartes RISC-V)

Le 26/08/2021 à 08h 38


fofo9012 a dit:


Premières tentatives d’install entre 1994-1998 pour ma part avec une suse ou redhat filée en CD avec un magazine,


Et à l’époque: si tu avais 4Mo de RAM, tu restais en CLI, lancer le serveur X + le client X sur la même machine, ça mangeait toute la RAM, il fallait au moins 8Mo




(quote:1892135:::1)
b/ linux ne veut pas être windows, aka ciblé par des virus, ransomwares et logiciels malveillants, ciblant systématiquement et forcément l’OS le plus répandu sur ordinateur. Linux veut rester “élitiste”, qui’il le reste.


Beaucoup de tentatives de distro “grand public” prouve que non, “Linux” tente d’être grand public à la place de Windows. Dans d’autres pays ayant une informatique plus récente ou encore en développement, ça peut fonctionner.
Mais si “Linux” peut gagner ce n’est pas “Linux” que les gens voient en grand public, mais le bureau: GNOME ou KDE essentiellement. Que KDE tourne sur Linux, BSD ou Windows, du moment que c’est KDE…
La bataille du desktop n’est pas une bataille de Linux, mais des DE.




(quote:1892135:::1)
d/ Linux, KISS.


Si seulement… Mais pour chaque outil, un outil de configuration différent, une structure différente. Et pour chaque outil, un autre outil à peu près équivalent qui “fait mieux” (grr la bataile Sysv vs systemctl)
Le prix à payer pour le libre? Une fragmentation énorme des outils… Je n’interroge jamais quelqu’un pour savoir s’il connait linux: il peut connaître une distro ou une autre, ou des outils opensource, Linux n’a à peu près rien avoir dedans. Quelqu’un qui connaît Linux n’es tpas aussi intéressant que quelqu’un qui sait configurer convenablement une synchro du fs de deux ordi en mode bloc (sous linux) ou quelqu’un capable de faire correctement du maître/esclave mysql (sous linux)
Mais ça a peu à voir avec linux dans les deux cas, plus aux outils construits dessus.

Le 25/08/2021 à 20h 23

Ce qui a bien profité à Linux et à tous, c’est le côté GNU, il faut le reconnaître. De grosses firmes (y compris IBM, Oracle, Ms…) ont profité d’avoir ce kernel à disposition pour le tuner/l’étendre/l’utiliser, et y ont contribué en rendant modifications et souvent pilotes.
Sous BSD on n’a pas forcément le retour.



Et on arrive toujours à faire des Linux utilisables en moins de 16Mo, ça c’est cool :)

Le 25/08/2021 à 20h 13


(quote:1892133:::1)
ne confondons surtout pas le vrai linux installé par des connaisseurs par l’entourage familial, l’install party ou autres initiatives variées, au “linux” imposé par défaut sur des millions de smartphones et ne correspondant pas à la philosophie du libre


Linux est aussi dans les NAS, les SAN d’entreprise, et mon ancien picoprojecteur samsung.



Par contre, un linux installé sur un ordi est peut-être un “vrai linux”, mais à milles lieux de l’original, bardé d’extensions dans le kernel pour que d’autres softs y aient une place au lieu d’utilise le FS pour communiquer, et en plus on a tué le serveur X parce qu’on ne savait pas comment faire pour que le terminal soit celui qui effectue le rendu…



Bref, on a tourné linux pour qu’il ressemble à un OS desktop comme Windows.

Le 25/08/2021 à 14h 26


Edtech a dit:


Je trouve Windows plus agréable pour un usage personnel et comme je dev pour Windows…


Oui, bon argument pour avoir Windows :)



Linux, c’est la liberté totale - et le pire fouilli que je connaisse.



Autant j’ai beaucoup d’estime pour le noyau, autant je n’en n’ai pas beaucoup pour la plupart des distros: doc pas à jour, pas de cohérence dans les outils, pas de doc d’install correcte… Hors, difficile de ne pas confondre Linux avec ses distros.



Autant j’aime bien bidouiller sous Linux, autant avec leurs docs plus cohérente/complètes/compréhensibles, les autres systèmes comme BSD, OpenVMS et même Windows (en tout cas à l’époque du MSDN) ont toujours eu ma préférence en pro…



Les systèmes dont la doc disparaît en quelques années car elle n’est diffusée que sur internet, ça me lasse…



J’imagine que si on est administrateur dédié Linux, on doit savoir où trouver la bonne doc (les man pages sont de qualité très variable) mais si c’est un système parmi d’autres et qu’il faut apprendre de Redhat, le centos, le debian = 9 pour corriger chaque système, c’est fatiguant.

Le 25/08/2021 à 14h 15


ErGo_404 a dit:


Si on avait parlé de WSL il y a ne serait-ce que 10 ans, tout le monde aurait rigolé.


Il y a 10 ans: http://www.colinux.org/ - et ça a débuté en 2004.
Je l’avais testé à un moment - mais sans conviction, je tournais sous BSD à l’époque.

Le 30/08/2021 à 12h 27


David_L a dit:


C’est une VM installée, pas un conteneur


OK.
J’avais en tête que Alpine était utilisé dans les conteneurs et j’étais resté dans la continuité des articles sur proxmox.



Du coup c’est même plus pratique que tinycore à installer et configurer. LE système APK est moins complexe que les TCZ qui sont parfois capricieux.



Jusqu’à présent, j’utilisais tinycore car c’était toujours distribué en 32 bits et j’avais une plate-forme 32bits only et capable de démarrer uniquement sur FAT/NTFS (HP T5740).



Merci, plus qu’à tester en physique pour le lecteur audio dont j’aimerais descendre le temps de démarrage :)

Le 30/08/2021 à 11h 45

C’est le pendant pour les conteneurs de tinycore du coup.



Question: quand on dit que le conteneur prend 35Mo de RAM, c’est vu depuis le conteneur ou depuis l’hôte?

Le 27/08/2021 à 19h 33

Trop tard!



Le petit PC du salon (i5 7500T) qui sert à jouer va de toutes façons passer sous Ryzen 3 3200GE, et Linux.



Quand à mon PC portable, la seule chose que j’utilise encore qui soit lié à Windows, c’est Minecraft Windows 10 - sauf qu’en fait, avec un émulateur Android sous Linux je peux aussi y jouer je pense…

Le 26/08/2021 à 14h 45


Tandhruil a dit:


Sinon, quelle est la différence entre Hash et Cheksum ?


Si on pinaille:




  • un hash est le résultat d’un algorithme qui doit garantir de maximiser les différences et limiter les collisions

  • un checksum est une somme de contrôle, modulo quelque chose, c’est assez basique, avec plus de cas de collission



Dans l’utilisation:




  • on utilise un hash comme une empreinte réputée quasi unique pour valider un transfert d’élément assez grand (un fichier complet), plutôt dans un cadre “haut niveau”/“logiciel”

  • on utilise un checksum pour de plus petits éléments pour valider une lecture (par exemple un code barre, un secteur de disque, un paquet réseau), avec en général la possibilité de relancer la lecture automatiquement sans intervention logicielle - on est plutôt au niveau firmware

Le 26/08/2021 à 08h 54


yannickta a dit:


Pour la partie app/vm ça marche bien, mais en VM :




  • On est loin de la souplesse d’un linux sur le passthrough. Sur ce point, j’ai laissé tomber.


Je vais juste modérer un peu. Le cas du GPU passthrough est aléatoire sur proxmox. Mais c’est aussi lié au support matériel - avec un linux baremetal on y arrive mieux mais souvent à coup de recompilation de kernel. Souvent les tutos proxmox le font sur l’instance hôte directement dans les les fichiers de config.



Pour les autres passthrough: USB et PCIe, ça marche très bien quelque soit la config. SATA, c’est manuel dans le fichier de config de la VM (sauf que ça s’affiche bien dans l’interface Web)



Exemples:




  • faire passer les téléphones et tablettes branchés en USB à une VM (soit pour bidouiller, soit dans mon cas pour en sauvegarder le contenu pendant qu’ils chargent sur la tablette de l’entrée) -> tout se fait via l’interface web

  • Dédier la carte réseau PCIe à une des VM: passe par l’interface web

  • Disque SATA dédié à la VM OMV - ça marche du tonnerre

Le 25/08/2021 à 14h 35


xillibit a dit:


J’utilise Proxmox 7.0 sur un mini pc (AsRock 4X4 BOX 4500U) : Ryzen 5 4500U, 16 Go de Ram, SSD PNY CS3030 500 Go; je n’utilise pas d’autres disques ou SSD. Je n’ai que deux VM dessus : une avec openmptcprouter et une autre avec jeedom


Oui, le résultat avec les Ryzen est aléatoire - selon le triplet CM, CPU, BIOS… Mais la majorité fonctionne.

Le 25/08/2021 à 14h 31


Iryngael a dit:


A part ça c’est clairement rockstable et je viens de me monter un cluster@home de 2 noeuds + 1 VM quorum (qui tourne sur une autre machine) avec des Dell Optiplex micro en Intel i7-8700 et i5-10500T achetés en seconde main à prix d’or.


Pareil, je suis passé des NUC à un Optiplex micro en 9500T - à part le problème du peu de disques et de l’USB3 only pour l’extension, c’est génial, on peut se lâcher :)



Je suis en 6 coeurs, j’ai 3 VM et environ 10 conteneurs… Effectivement j’ai vu des 10500T à un peu plus de 300€ sur ebay, j’ai failli craquer.

Le 25/08/2021 à 09h 34


durthu a dit:


C’est un boitier rack avec 20 emplacements HDD en façade. J’ai un disque interne pour le système mais je me demande comment est géré le reste du stockage. Celui ci est géré via des pools ?


Oui, tu peux affecter tes disques à des pools ou au contraire les mettre en accès direct à une VM qui fait le taf à la place de proxmox.



Je l’ai depuis plusieurs mois, très bien, ça se fait complètement oublier et c’est souple.



Par contre, j’ai tenté de passer de Intel (9500T) à AMD (3400GE sur Asrock x300), catastrophique: perte des SSD en marche au bout de quelques minutes, du coup pour le moment je le conseille sur Intel seulement autour de moi (mais je n’ai que mon expérience là-dessus, quoique je ne soit pas le seul à avoir les mêmes symptômes sur AMD d’après le forum)

Le 24/08/2021 à 14h 24


barlav a dit:


Oui, de 10 à 20 tonnes. Soit un demi poids lourd. Et pour les cheminés de refroidissement on mettra un pot d’échappement à la place. :bravo:


https://www.nasa.gov/directorates/spacetech/kilopower



Le réacteur portable de “seul sur Mars” n’est pas que de la SF, c’est une vraie idée en train d’être conçue.
Bon, le réacteur final risque d’être un peu plus gros, mais embarcable dans des véhicules.

Le 24/08/2021 à 13h 10

“la fusée est un non sens”
Un haricot géant comme dans les livres de Phillip K.Dick et Charles Sheffield?
Bon ok, pas trop terroriste friendly (ou alors trop :) )

Le 23/08/2021 à 13h 34


David_L a dit:


Non, c’est comme pour Windows 10, il y a des fonctionnalités qui tirent partie du TPM mais il y a toujours une alternative pour le moment. Après je pense que l’idée c’est de pouvoir exiger TPM rapidement grâce à ce choix fait aujourd’hui dans Windows 11, comme c’est le cas dans pas mal d’OS (qui n’ont pas la même legacy à assumer).


Je pense pareil, mais quels autres OS nécessitent le TPM?



Pour le CPU, je pense que la liste ne va pas foncièrement évoluer (vu qu’il y a des intel 8xxx kaby lake, peut-être étendre aux intel 7xxx kaby lake). Par contre, j’imagine que Windows 11 fonctionnera, mais sans support/garantie de Ms. Bref, un peu de FUD et un peu de nouvelles excuses pour ne pas se casser la tête avec le support. Parce que dans le fond, entre un i7 8xxx et un i3 6xxx, je ne crois pas qu’il y a eu une évolution majeure notable.

Le 23/08/2021 à 08h 57


Krystanos a dit:


Les travaux des psychologues expérimentaux que j’ai suivi il y a 20 ans (déjà) tendent à monter que l’ergonomie est en grande partie dûe aux habitudes, et qu’une ergonomie innée n’existe pas.


Plutôt d’accord, mais aggresser un utilisateur avec un écran rempli de champ ou le laisser chercher sans aucun indice ce qui est clickable ou non est dans les deux cas anti-ergonomie car rien ne guide l’utilisateur suffisamment.



Ayant dû passer des gens d’une interface terminal texte à du Windows puis du Windows à du web intranet voire extranet, c’est très dur:




  • l’interface texte est peut-être archaïque, mais extrêmement efficace. Les gens tapent les commandes absolument sans y penser, la mémoire des gestes est extrêmement efficace

  • l’interface Windows nécessite de coordonner la mémoire visuelle (où on clique) et gestuelle (le déroulement souris) sans parler du jonglage souris/clavier -> GROSSE FATIGUE pour les utilisateurs qui utilisaient le mode texte

  • l’interface web, c’est l’enragement: chaque 14 de seconde de réponse fait monter l’énervement. En Web extranet, les liste “dynamiques” qu’il faut scroller pour voir la fin avec rafraîchissement “dynamique” (mais qui prend une fraction de seconde visible) est désespérant
    La perte du copier/coller est horrible, le comportement très particulier du click droit encore pire, les changements permanents dans l’affichage de l’interface au gré du prestataire sont absolument désastreux: plus aucune mémoire ne fonctionne puisque ni l’apparence ni souvent le texte ne sont conservés.
    -> Ergonomie zéro, efficacité minable (en général)




L’icône disquette pour sauvegarder, alors que la génération actuelle n’a JAMAIS connu la disquette.


Là on touche un problème bien plus grave: la différence fondamentale entre l’informatique “à l’anciennce”/“d’entreprise” dans lequel TU choisis de sauvegarder et celle de maintenant (tablette) ou c’est sauvegardé en permanence.
Les utilisateurs tablette téléphone sont un peu perdus sur ordi car il FAUT penser à sauvegarder, et fermer l’appli fait perdre les données. Et ça met déjà du temps à s’apprendre, et en plus c’est lié aux fichiers et ça ça leur fait peur…
–> A éradiquer pour être “user friendly”




fdorin a dit:


Avec la démocratisation des suites offices en ligne, à partir du moment où tu disposes d’un navigateur… tout est faisable ;)


Les office en ligne sont bien trop lourds, lents et limités pour être une alternative actuellement viable. Quiconque a bosser dans un bureau et se retrouve sur un office en ligne (y compris les retraités qui espèrent gérer leurs comptes sur un simili excel en ligne) pestent sur le côté totalement à côté de la plaque de l’outil.



Deuxième problème: la triple interface: si tu fais utiliser des sites en ligne, ils ont encore moins de ligne directrice dans la conception que les applis du bureau. Tu ajoutes en plus l’interface du navigateur et l’interface de l’OS, ça fait 2 interfaces à apprendre + celle de de chaque outil.
Le jour où tu dois imprimer, tu perds les gens qui doivent maintenant comprendre ce que signifie générer un PDF et imprimer depuis le PDF…
Non, ce n’est pas prêt pour que les gens soient autonomes.

Le 20/08/2021 à 09h 00


Thoscellen a dit:


C’est choquant d’avoir un OS ou l’explorateur de fichier n’est pas de base présent dans le premier écran. Tout le monde a besoin de manipuler des fichiers à un moment, mais nous bien plus qu’une Mme Michu qui regarde son journal et ses courriels.
Pareil, ce bouton réduire, c’est voulu par l’équipe d’eOS, pour eux, une app visible est ouverte, autrement elle est arrêté. Tout état intermédiaire apporterais de la confusion et de la complexité.


Après, si par défaut on ne force pas un peu la main sur ces fonctionnalités, elles ne disparaîtrons jamais. Je suis fervent opposant aux “noms de fichiers obligatoire”, on a plein de métadonnées qui font qu’un nom de fichier n’a pas à exister dans le FS, et cela depuis près de 20 ans (ça m’a frappé sous BeOS).
Pour le bouton réduire, je suis un peu plus mitigé: leur approche est une approche hérité du mobile, en ressources restreinte. Elle est défendable, mais cela ne correspond pas aux appareils que nous avons ni niveau PC ni niveau téléphone actuellement. Et effectivement j’ai envie de pouvoir réduire blender ou handbrake et qu’il continue à bosser derrière.

Le 19/08/2021 à 11h 42

Je n’ai jamais utilisé de flatpak, on ne peut pas les dédupliquer?
Ca devrait limiter l’impact niveau FS.
On le faisait avec les PBI sous PC-BSD (qui installait une copie des librairies pour chaque logiciel) via des lien symboliques.

Le 23/08/2021 à 08h 26


Gilbert_Gosseyn a dit:


Comment peut-on oser vendre des CPUs en 2C/2T en 2021 ? Ça me dépasse …


C’est toujours d’actualité pour les PC qui pilotent des affichages par exemple, de petits postes TSE essentiellement mais qui permettent de faire un peu plus en local, un micro serveur personnel…



Mais c’est vrai que 2C/2T c’est vraiment difficile à utiliser de nos jours maintenant: le CPU devient complètement saturé pendant les MAJ et les analyses anti-virus.



C’est le cas par exemple sur les ordis fournis aux lycéens par la région grand-est. Dans le cas d’utilisation “standard”: office, web, un truc à la fois, ils sont tout à fait suffisants.
Par contre, Télécharger les PDF des manuels scolaires en début d’année est très long (plusieurs heures) notamment parce que le manuel PDF faut plusieurs Go, mais que dès que le navigateur en télécharge un bout, l’antivirus le rescanne de 0…

Le 20/08/2021 à 08h 49


ecatomb a dit:


Actuellement si on essaye de naviguer sans bloqueur de publicité, c’est franchement une horreur.


De plus en plus de sites (pas les meilleurs) demande à ôter le bloqueur de pubs.



Mais maintenant, surfer sur internet c’est:




  • Cliquer sur l’URL

  • Paramétrer les cookies

  • Refuser la géoloc (qui de toutes façons renvoit dans un autre département la plupart du temps - coucou les site météo)

  • Refuser les notifications



How user friendly…



D’ailleurs, le temps que je passe à nettoyer les notifications chez tout le monde maintenant…



Les gens parlent des cookies, mais quand on regarde, on trouve des trucs dans les “localstorage”, dans la “bddlocale”, … C’est vidé en même temps que les cookies? Car quand on jette un oeil, ça ressemble à tout ce qu’il faut pour repartager les infos si le cookie a disparu…

Le 18/08/2021 à 19h 34


Citan666 a dit:



Là c’est faire de la techno pour fuir toujours plus en avant. Tu veux une autre formulation ? Allons-y, en mode simple : dans 30 ans non seulement on n’aura plus forcément les matières premières pour assurer tous les usages (en tout cas pour une majorité de population), mais on aura très probablement des soucis majeurs pour remplir les besoins de base notamment parce qu’au lieu de se poser la question de ce qui est réellement utile on aura accéléré dans le modèle de la sur-consommation.


Sans compter l’énergie… Je pense qu’on va vers un avenir où on ne pourra plus tout laisser connecté en permanence. Il va falloir que les programmeurs réapprennent à faire des logiciels qui ne font pas n’importe quoi quand un des composants n’est pas dispo (un serveur, le réseau, …)

Le 18/08/2021 à 11h 48


Tandhruil a dit:


Je ne comprends pas bien, on a des latences de plusieurs centaines de millisecondes en filaire, je ne vois pas l’intérêt d’une latence à 0,1 ms ?


Tout dépend ce que tu appelles filaire. Sur un réseau, on est généralement < 1ms. En ADSL, plutôt de l’ordre de 30-100ms (rarement plus).
En 4G, on est dans les dizaines de ms (voire bien plus si saturé).



L’aspect “réactif” d’un site web est plus sur la latence que sur le débit (bon, avec des sites qui pèsent 50Mo pour une page, le débit est important aussi). Quand ta page charge 10 fichiers, puis en déduis qu’il faut en charger encore 10 autres, puis encore 10 autres, entre les paquets réseaux du DNS (si pas en cache DNS), ceux liés à la négociation SSL (sur plusieurs sites souvent) + les paquets des requêtes web, la latence pèse.



Sans compter les sessions distantes, qui commence à sembler “lourdes” avec des latences > 40ms (souvent atteinte en 4G), ou pour le JV en streaming.




(quote:1891407:Benoit NI)
Je pensais que la fibre allait à la vitesse de la lumière, qu’on était à la vitesse maximale, et donc avec la latence la plus faible.


On est en radio, non full duplex. Le protocole doit être adapté à des faibles latences. Si le protocole c’est “je cause 10ms, tu causes 10ms”, ta latence ne descendra pas sous les 20ms.

Le 18/08/2021 à 08h 02

On va finir avec des antennes sur nos toits pour capter en intérieur.
Par contre, la latence fait rêver. C’est vraiment le problème des lignes 3G/4G. Le débit n’est pas forcément un problème, mais la latence est ultra importante pour plein de site qui font une véritable cascade de téléchargement.

Le 17/08/2021 à 12h 58


SebGF a dit:


En fait quand je lis vos retours d’expérience sur l’IA, j’ai l’impression que ce sont simplement des gamins à qui on a appris une chose fausse et qu’ils la répètent bêtement.


Le sophisme artificiel…

Le 16/08/2021 à 19h 47


fofo9012 a dit:


Le pire est l’excès d’apprentissage : tu formes ton réseau neuronale, il commence à trouver des trucs, tu continues, et si tu le “gaves” trop il commence à apprendre les biais de ton modèle de données (y’en a toujours :-/ )


Ou alors il devient bien trop précis…

Le 16/08/2021 à 14h 01


vizir67 a dit:


tout ça me rassure ! (et…c’est ‘demain que l’IA.’ pourra remplacer l’Humain)=youpi !!! :langue:


Pour moi, ce qu’il faut comprendre, c’est que la “démocratisation” des outils d’IA correspond aussi à une “démocrétinisation” de la population qui utilise ces outils.



Les outils d’IA, c’est vraiment puissant. Mais faire manger à des IA des images sans réfléchir en se disant qu’elle va toute seule trouver les 7 différences … c’est oublier qu’elle va en trouver 7000 des différences…



C’est comme les histoires d’algo de reconnaissance faciale qui ne fonctionnaient pas sur les populations non-blanche … essentiellement parce qu’on avait oublié de tester sur autre chose que des blancs.



En fait, sans diriger l’apprentissage selon les axes qu’on veut, on est sûr que l’IA n’apprendra pas ce qu’on veut.
Mais on pourrait le “deviner” souvent avec les courbes que sortent les algos d’apprentissage, ou lors des phases de test où l’on vérifie manuellement que l’IA a le même avis que nous.



L’outil est bon, mais ce n’est pas non plus un truc ultra magique. Par contre, c’est un outil qui est capable de trouver des groupes/des conclusions/extrapoler sur plus de 3 axes, ce que très peu d’humain savent faire (va représenter des données qui varient selon 7 axes).



C’est aussi un outil capable de te dire si dans les 20 axes que tu lui as fourni, on peut trouver des méta-axes ou s’il y a des axes qui sont non pertinents.

Le 16/08/2021 à 11h 31


carbier a dit:


Exemple: on ne peut utiliser une IA que dans l’amplitude de sa base d’apprentissage. Si vous utilisez une base uniquement constituée de données pédiatriques, vous ne pourrez pas utiliser l’IA pour des adultes.


Exemple: si votre base d’apprentissage est une tonne de livres de littérature, votre IA sera peu adaptée à répondre à des questions en tant que Chatbot…

Le 16/08/2021 à 08h 29

L’IA est un ensemble d’outil pour analyser en même temps des tonnes de paramètres, ou même de détecter des paramètres qui ne sont pas imaginés par l’être humain.
Mais il faut être capable de lui fournir un jeu de données non biaisé, suffisamment conséquent, et de relancer l’apprentissage en excluant les “fausses pistes”.
Quand je vois les jeux de données pour la vision, c’est un travail titanesque car on “montre” généralement à l’IA les zones intéressantes.



Mais bon, j’ai toujours dit que le métier “d’éducateur/rééducateur d’IA” va émerger :)

Le 17/08/2021 à 08h 35


revker a dit:


Mouais, je ne sais pas où cette gamme compte se situer par rapport à nVidia mais je pense que le caméléon ne risque pas de trembler de si tôt. Surtout si Intel applique ses tarifs processeur aux gpu.


Tout dépend ce que vise Intel. Le Xe a montré un excellent potentiel, plutôt doué en jeux face à la concurrence, et pas mal en calcul. En vidéo “de base”, intel a le QuickSync depuis longtemps.
Pour du “tout-venant”, Intel a pas mal d’atouts dans sa manche en fait.



Pour du très haut de gamme/gamer/serveur, on attend de voir…



Je crois que Intel va pousser le “OneAPI” pour avoir du dev dessus, et capitaliser ensuite en sortant des accélérateur pour ce “OneAPI”. Actuellement, fac eà toutes les limitations du modèle x86/x64 qui craque de partout, se diversifier en sortant des API et des coprocesseurs n’est pas idiot.
Mais sur les API, Intel a rarement réussi à faire l’unanimité: pas assez geeky/cheesy, trop pro/lourd

Le 13/08/2021 à 15h 14


fofo9012 a dit:


Et comme je le disais sur le modèle client / serveur il n’y a qu’une requête du client et une réponse du serveur à chaque action,


C’est beau :) Et très rare …



Le problème, c’est les applis qui ont été créées (souvent avec des ORM ou équivalents) de cette façon: pour voir les produits commandés:
1-Le client télécharge la liste des commandes et
2-Pour chaque commande le client récupère la liste des lignes et
3-Pour chaque ligne il récupère les infos du produit
-> produit cartésien.



Dans ce cas, l’écroulement des perfs est énorme si le lien entre le client et le serveur a de la latence.



Et pour les petites applis, c’est souvent le cas…

Le 12/08/2021 à 12h 51

En relisant comment ça marche, je me dis qu’on peut l’intégrer directement dans l’écran en fait :)
Les maths impliqués n’ont pas l’air de dépasser ce que peut faire un petit copro pour l’IA…

Le 12/08/2021 à 12h 12

La remarque sur les “strong edges” m’interpelle. Les codec vidéos type H265 font du sous-découpage pour conserver les détails: hors les versions des films diffusés par amazon prime sont souvent moches sur les effets spéciaux, quand la version Bluray ne me semble pas les souligner autant.
J’ai supposé que cela était lié au contour de ce qui est filmé et ce qui est ajouté, notamment à cause de légère différences dans l’éclairage ou de légers problèmes dans les reflets (par exemple sur les épaules des gens)
-> j’aimerais bien voir ce que ce FSR ferait sur un film comme les Harry Potter ou Black Panther qui font souvent “carton pâte” en version 4K.

Le 12/08/2021 à 12h 03

Ce me donne envie de le passer sur quelques DVD… (genre Abyss, DVD commercial vendu avec les bandes noires du 43 et les bandes noires du 169 en même temps)

Le 12/08/2021 à 07h 22


mrlafrite a dit:


“Autre nouveauté qui intéressera cette fois plutôt les adeptes des services de Microsoft, qu’il s’agisse de particuliers ou d’entreprises : le dispositif de connexion unifiée (SSO) intégré à Windows, propre à l’entreprise, est désormais géré par Firefox.”


Ca ne l’était pas déjà? Pour moi il “suffisait” de l’activer soit pour les url du domaine local, non?