(quote:2164830:Jonathan Livingston) Les PC-1512 était des compatible PC pas chers, avec MS-DOS et une surcouche graphique GEM concurrente de Windows.
Non, je maintiens: les CPC permettaient de faire du traitement de texte et de la mise en page. J’ai récupéré 2 Atari ST qui étaient utilisés en pro pour de l’illustration de publicité. Ces ordis on les voit surtout comme des machines de jeu, mais elles existaient aussi pour travailler.
Le PC1512 était mon 1er PC perso :) - j’ai appris le tableur sur calcomat…
Le
13/11/2023 à
09h
29
tazvld a dit:
C’est plus MS-DOS que Windows. Et c’est comme dit plus haut le fait que MS a eu l’idée de garder leur droit sur DOS lors du développement de l’IBM PC et de vendre ces licences hors IBM-PC qui a permis la création de clone matériel.
IBM avait publié les specs du BIOS. Techniquement, l’IBM-PC était assez ouvert.
(quote:2164750:127.0.0.1) Pas si certain. Pour moi, les gros fabricants de HARDWARE (ceux qui ont les moyens d’imposer un standard hw/sw) n’ont aucun intérêt économique à le faire: c’est se créer de la concurrence pour rien. Seuls des gros fabricants de SOFTWARE ont un intérêt dans la standardisation hw/sw.
Exactement. C’est ce qui a tué les Amiga, Atari ST et autres. Dans les années 80, même les Amstrad CPC étaient utilisés dans le monde pro.
Ce qui a propulsé Ms, c’est les clones de PC à bas coût. Et ce qui a permis que les clones existent, c’est que le soft n’était pas maîtrisé par le constructeur principal. IBM a franchement perdu avec l’IBM PC (notamment dès que des concurrents comme Compaq sont apparus)
Pour en revenir à Windows, le 1 et le 2 sont anecdotiques. Ils étaient à peu près au niveau de GEM.
Le 3 a accompagné la percée de l’informatique dans les entreprises. Le 3.1 a tué les concurrents qui avançaient sur le réseau d’entreprise comme Novell
Ca se rapproche du “In memory computing”. L’architecture avec un CPU central est on goulot d’étranglement - pas par sa vitesse de calcul, mais plutôt par son nombre de canaux, et l’architecture qui consiste à lire en mémoire et y réécrire après le calcul. Le rendu graphique a permis de s’orienter vers la super-parallélisation. L’IA va certainement aller vers d’autres types d’architectures, notamment sur l’accès mémoire (lecture puis écriture séquentielle “plus loin”). Un peu comme les puces mémoires de certaines TV milieu 90 qui permettaient de lire en ligne et d’écrire en ligne en même temps.
Mais surtout, ça me fait penser que les “accélérateurs” d’IA (NPU, KPU et autres) actuellement intégrés aux appareils dans les CPU et SOCs et annoncés à grand renfort de marketing risquent bien d’être vite inutiles et inutilisés en cas de changement d’algo/de paradigme (c’est déjà le cas, la plupart de ces unités ayant des limites de fait qui ne sont pas contournable “localement”)
Ton expérience c’est des machines qui ont réussi à passer d’une deb à l’autre. Mon expérience c’est plusieurs abandons de support sur Linux, pas sur Windows (ou bien plus tard) y compris sur des serveurs en blade. Plusieurs portables devenus totalement instable (OK, leur ACPI n’était pas standard, mais il était supporté avant). Plus récemment, des problèmes avec des SSD et AMD (SSD qui cessent de communiquer en route: c’est plus que gênant - pas dû à Linux en lui-même: c’est le firmware qui déconne ou le BIOS, ou alors passthrough impossible à activer sur carte mère AMD - je suis repassé à Intel) . Actuellement, Debian sur desktop reste un peu problématique avec les mises en veille aussi chez moi (ordi pas vraiment en veille ou ordi qui ne redémarre pas à chaud).
Au final, Linux me donne une confiance limitée dans le support matos - pas du fait de Linux en lui-même actuellement, mais du fait des constructeurs.
Linux reste l’OS de mon serveur perso, et plusieurs initiatives me donnent beaucoup de satisfaction:
fwupdate qui centralise les mises à jour firmware et me permet de contourner des restrictions de mises à jour que j’ai sous Windows
les distributions de soft type appimage qui permettent de ne pas être root pour installer sans perdre la trace de l’installation (je suis un ancien adepte du “build from source” pour installer pour un utilisateur particulier)
En prod, je ne suis pas prêt de retenter du linux baremetal pour des serveurs critiques. De plus, le support Linux coûte souvent aussi cher sur serveur que les licences Ms Datacenter.
De même, je constate que nos éditeurs qui fournissent des VM tardent énormément à valider de nouveaux Linux - les VM fournies sont souvent en Debian 8 ou 9, et tous les patches ne sont pas passés - et notre contrat de support saute si on les passe nous-même.
Si les patches dans l’opensource sont dispos rapidement, ils le sont aussi chez Ms - le patch tuesday est un “service” de distribution généralisé, et qui a un rythme plutôt bien calibré je trouve pour les pro.
Qu’il faille redémarrer une fois toutes les semaines n’est pas un si grand mal: beaucoup d’applis ne sont pas faites pour ne pas redémarrer actuellement, même sur serveur (les serveurs web notamment ont tous un moyen de “redémarrer” soit en forkant soit brutalement). De plus, avec le “numérique responsable”, éteindre les serveurs dans les périodes calmes devient courant. Enfin, en cas de HA, un cluster avec une veille active + bascule auto est souvent plus facile à gérer que du “toujours actif”, que ce soit sous Linux ou Windows ou autre.
De mon point de vue, Windows et Linux c’est plus selon disponibilité des applis et intégration à l’environnement - mais aucun n’est réellement meilleur que l’autre
(et Windows a toujours cet avantage: on ne peut pas vraiment agir avec le login d’un autre, alors qu’un fois root sous Linux, on peut usurper l’identité sans trace :) )
Le
12/11/2023 à
22h
12
yl a dit:
M.D.R
Linux a les mêmes problèmes que windows. Sur un desktop,le son peut partir en sucette parce qu’on branche/débranche le casque à chaque appel, glisser des fenêtres sur des écran de résolution diférentes fait agrandir ou rétrécir jusqu’à ne plus pouvoir lire ou dépasser de l’écran, des applis de base comme les panneaux de contrôle dépassent de l’3cran en 1366x768, il faut cliquer au clavier et à l’aveugle des boutons ok/annuler, des mises à jour font que des logiciels/panneaux ne s’affichent plus tant qu’ on n’a pas effacé les fichiers de notre profil… Et je ne fait que de la bureautique, un peu de prog, du montage et du jeu.
Et j’aime bien l’environnement linux! Mais il les mêmes dégaut et problèmes que windows, mais plus souvent je trouve.
Le
12/11/2023 à
10h
51
OlivierJ a dit:
Le mec raconte n’importe quoi, Windows plus stable que Linux… Le gros troll. Fin 2023, j’arrive toujours pas à comprendre le manque de professionnalisme de Microsoft, rien que l’explorateur de fichier, aussi rudimentaire et mal fichu du point de vue ergonomie assez basique.
Bo, ben je me débrouille mal alors. Ce matin, lancement d’un jeu (Broforce) - plantage - impossible d’arrêter autrement que par le bouton (sur l’ordi de jeux, un MSI).
Un copain me montre le steam deck: “attends, avant d elance rle second jeu, si je le lance après celui-ci (oxygen not included), le framerate est réduit de moitié”
Le desktop sur Linux a au moins les mêmes problèmes que Windows - parce que la conception du DE a en gros les mêmes idées. E si des DE “légers” peuvent être mieux, à la moindre applis Qt ou GTK qui se lance, toute la machine en dessous s’active.
J’aimerais bien voir ça.
Ben ils ont des conférences très sérieuses, où on peut échanger du bien qu’amène l’opensource (indépendance et conservation de la maîtrise du calendrier), et du taf nécessaire pour undéploiement de certains patchs ou versions de librairies, qui nécessite de tester tous leurs actifs faits en interne - et c’est long.
Et que en gros, comme toute grosse structure, ils refont un “patch tuesday” car sur le bureau on ne déploie quasiment jamais “day-1” à l’aveugle: on le fait par plusieurs temps en laissant au moins des utilisateurs ciblés tester une semaine. Ms le fait d’ailleurs sur Office 365, et certains presta SAAS ne le font pas et réussissent à casser tous leurs clients d’un coup…
Bref, dire que le patch tuesday est dépassé et ridicule, c’est se masquer la réalité du passage de mises à jour.
(sans compter tous les “power users” et “gamers” qui désactivent les mises à jour car Windows ne sait pas faire et leur a tout cassé une fois il y a 10 ans, donc non)
Le
10/11/2023 à
20h
51
RedShader a dit:
Déso mais non. Windows est très stable, fonctionne sans problème, facilement gérable via l’AD. Dans la collectivité territoriale où je bosse, il y a un peu plus 3000 PC Windows 10 et jamais eu de problèmes.
Faut arrêter un peu le Windows bashing.
Merci. J’avais commencé une réponse mais j’avais abandonné. Un peu marre de voir windows bashé alors que des énormesparcs sont gérés avec, le comparer à linux qui est rarement déployé en desktop.
Les Deux os sont bons. Et ce qu’on aime dans windows c’est sa stabilité. Mettre à jour des serveurs open source en prod, c’est souvent un projet en soi dès qu’ on une infra un peu développée - parce que les pilotes et le support disparaissent, parce que la compil flanche car la source n’est plus compatible avec le compilo, parce que le format du fichier de config a changé, ou un paramètre par défaut, ou l’emplacement, ou parce qu’une nouvelle fonctionnlité a disparu… Pour info, c’est du vécu.
Alors oui, windows j’ai aussi eu des soucis, mais si on met en proportion du nom re de serveurs, moins. Et la Doc était meilleure sous windows avec le msdn (maintenant c’est moins top)
En pro, on ne cherche pas la dernière nouveauté ou changer tous les deux jours, on cherche la stabilité (la pérennité) - et autant des serveurs de plus de 10 voire 15 ans sous windows j’en ai eu et j’ai pu mettre les pilotes à jour, autant sous linux j’ai souvent eu des ordis qui ont cessé de fonctionner en mettant le noyau à jour.
Et non, je ne suis pas anti linux, mais il n’est pas vraiment prêt pour le desktop, il manque de cohérence . Linux sera orêt pour ça quand windows sera un produit mort sur le desk.
Quand à comparer windows et linux sur serveur… Combien ont réellement essayé windows serveur core pour se débarrasser de la charge gui sur serveur? C’est un très bon produit. Et avec juste ce qui est inclus de base dans un windows, administrer un ou 10 serveurs, êtee solo ou en cluster c’est juste simple.
Le
10/11/2023 à
12h
49
madhatter a dit:
Il me semble que même dans ses versions récentes, Windows ne fourni pas autant de logiciels sur une installation standard.
Microsoft a tout viré suite aux plaintes et risques liés à l’abus de monopole. Résultat: quand on installe un Windows, c’est quasi nu, à part des applis tierces qui font caution.
madhatter a dit:
On parle du temps pour déployer un correctif de sécurité et tu réponds en parlant du temps avant la découverte d’une faille. Ça n’a rien à voir.
Oui, tout à fait d’accord, mais comme Microsoft a AUSSI traité la faille dans la journée (correctifs déployés le 12⁄09 pour Edge, Skype, Teams et consorts dans le store), j’ai répondu à un affreux troll qui balance du fake pour le bon gros troll anti open source (je ne suis pas du tout anti-open source - juste modéré car je ne trouve pas que Windows soit un mauvais produit et que Linux soit merveilleux)
Sur une Debian stable ? Je me demande bien ce que tu peux faire avec pour avoir besoin d’éteindre régulièrement ?
Juste du dev de base, de l’internet et de la bureautique mais le DE pète un câble. J’ai essayé en X11 et l’autre mode, c’est pareil. Après, je suis sur une deb upgradé 3 fois - mais mon Windows est un 7 upgradé 8, 10, 11 et ne pose pas de problème. C’est pas vraiment Linux le problème: c’est l’utilisation en bureau. C’est les distro, les DE, les différents environnements, l’empilement improbable de couches…
(quote:2164331:alex.d.) Passe sur Debian unstable, ça ira mieux. Debian unstable ici : % uptime 10:51:09 up 38 days, 12:00, 60 users, load average: 0,79, 0,66, 0,90
En serveur je n’ai rien à dire, le proxmox redémarre rarement hors coupure de courant - c’est en desktop que c’est très aléatoire, c’est le DE qui plante.
yl a dit:
Tiens, même le pauvre Raspberry qui gère la baraque est actuellement à pile 60j d’uptime. Le clicodrome de Redmond, toujours peu modulaire, il aurait déjà dû redémarrer au moins 2 mardis.
Windows serveur core limite bien le nombre de démarrage. Et pas de GUI, donc pour le clickodrome… Et 60j, même sans redémarrer, tu as tout ton linux à mettre à jour suite à la faille libc (qui est exploitée via des extensions PHPUnit dernièrement, donc ne pas la sous-estimer)
De mon point de vue, Windows et Linux se valent pas mal. Chacun ses défauts. Windows n’est pas le plus performants, le plus stable, mais il est pas mal cohérent. Il peut être lourd. Mais j’ai le choix dans les sources d’applis.
Linux est stable au niveau noyau, mais les envs des applis sont parfois un peu épileptiques (kbus - grr…) et c’est un bazar sans nom dont la doc est totalement éparpillée. Les applis sont celles du gestionnaire de paquets, si j’en sors je suis assez seul au monde (bon, il y a les nouveaux packaging qui changent pas mal la donne).
Le patch tuesday, en entreprise, c’est génial. Implicitement, avec des postes et serveurs en Linux, des PHP et des Wordpress on fait la même chose: revue des mises à jour et passage selon un calendrier. Un fois par semaine, c’est déjà pas mal, ça met un délai humainement suivable.
Le
10/11/2023 à
08h
24
sebsauvage a dit:
Si quelqu’un vient vous dire “Mais Windows c’est plus professionnel”, vous pouvez lui rire au nez.
Vive trolldi.
Tu parles d’une faille desktop. Quand Linux aura à se soucier de faire autant de tests sur desktop que Ms, avec autant de retombée en cas de patch qui pose problème, on verra.
J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi. Impossible de conseiller cela en déploiement au boulot, à part à multiplier par 3-4 le nombre de hotliners.
Windows est stable (dans son comportement). Il fait dinosaure, mais c’est ce que mes utilisateurs attendent: pas de changement, car on s’en fout des changement en entreprise, des fonds transparents et que le rendu soit optimisé par GPU.
Maintenant, Linux a mis quoi: 7 ans sur un programme opensource comme sudo pour trouver la “faille” qui ressemblait à un backdoor? BSD, c’était du même acabi pour l’exécution à distance simplement par envoi d’un email… L’opensource ne protège pas du tout de mauvaises intentions. Et à la vitesse où les liens se sont multiplés entre les softs, bien malin est celui qui se portera garant de tout ce m..dier.
Parles-en avec la cellule de la gendarmerie qui prévoit les déploiements: il faut un paquet de monde et ça prend un temps fou pour déployer sur des postes opensource.
Ca ne fonctionne pas. Nous avons eu le cas avec nos enfants (messages du type “je serai à telle heure à tel endroit”): les messages arrivent quand tout le monde est à la maison. Sans compter les messages qui partent en double, ceux qui n’arrivent jamais sur les Apple
Pour le moment, le SMS est bien plus sûr de mon expérience.
mais on est à des années-lumières de la richesse d’instructions de x86 et donc de sa polyvalence.
Euh, non. ARM a des instructions pour tout ce qui est “utile”. x86/x64 continue à se traîner des instructions plus oumoins marketing ou venant de l’époque ou la RAM était chère et le cycle CPU aussi (genre les comparaisons de chaîne, le calcul en BCD)…
Par ailleurs, je rappelle qu’intel tire la moitié de ses revenus de sa branche PC pour un bénef total de 7-8Mds/an c’est à dire 2-3 fois le CA (j’ai bien dit le CA) d’ARM, donc la mort du x86 certainement un jour mais pas tout de suite.
Pour être honnête, il faudrait comparer le CA d’ARM + des fondeurs de puces ARM à celui d’intel - qui est alors dans les choux…
Le
06/11/2023 à
10h
41
yl a dit:
Peu de chances de voir apparaître un “Raspberry V” après cela…
Je me suis fait la même réflexion. Ca me paraît être le côté “stratégique”. Bon, après il y a les clones.
yl a dit:
Hors Apple, qui maîtrise HW+SW dans un mode compatibilité source (plus proche de Linux) et non binaire (sauf phases de transition), je ne pense pas. Cela fait pas mal d’années que Qualcomm promets sans tenir avec Microsoft
Ca a l’air d’arriver. Et beaucoup d’applis ont des parties en .Net ou même python, ces applis ne souffrent pas de changer d’archi.
(quote:2163493:alex.d.) Rosetta marche plutôt bien, non ? La compatibilité n’est pas qu’au niveau source.
Les émulateurs Box64 et FEX ont des performances correctes en binaire. Mais voici un élément de comparaison: en gros, entre lancer une appli en ARM natif et compiler l’appli en x64 et la lancer sous l’émulateur, on perd 50 à 70% de perfs CPU (parfois plus, parfois moins). Par contre si on est peu lié au CPU, on peut arriver à quasi 100% de la perf “ressentie” (exemple: en comptant le nombre d’images / secondes d’un jeu) C’est testable sous Android (Winlator) et SBC comme les RPI (box64)
Je serais curieux de voir ce que tu propose comme optimisation. A mon avis, la plupart des jeux sont déjà bien optimisés, peut-être pas “à fond”, mais s’ils le faisaient “à fond” pour chaque architecture et type de config, les jeux ne coûteraient pas le même prix…
Vekin a dit:
Maintenant, imaginons que les développeurs sortent des jeux super optimisés, le DLSS n’en perdrait pas moins d’intérêt : avoir une définition/fréquence d’images supérieure avec moins de ressources utilisées
Et maintenant mon exemple: et si on streamait à 30 FPS pour sortir du 60, on gagnerait énormément en débit pour streamer des jeux… Je pense qu’au-delà de ce qu’on voit actuellement, le jeu en streaming est une application à venir pour ces algos. Et que celui qui fera l’algo le plus intéressant/applicable remportera un futur marché: celui des cartes graphiques côté serveur, des serveurs de jeux chez les FAI, et des royalties dans les TV et box des FAI…
Le
07/11/2023 à
19h
45
A une époque (fin 90), S3 travaillait sur des pilotes avec un changement de résolution dynamique si le framerate était trop lent. Bon, chez eux, c’était encore pus buggué avec ça (leur cartes/pilotes avaient tendanc eà ne pas afficher toujours la bonne texture :) )
Les FSR et autres m’y ont fait penser.
Mais ça me fait penser à autre chose: le jeu en streaming. On peut peut-être faire le rendu et compresser en “basse” réso et passer le FSR côté client?
Un certificat EV (qui confirme l’entité légale et le contrôle du domaine par l’entité légale et pas juste le domaine) offre en théorie un meilleur niveau de “sécurité” car il permet de confirmer que le domaine appartient bien à telle ou telle organisation. Mais c’est peu utilisé et la plupart des utilisateurs s’en fichent.
Il va falloir que ça change. Qu’on puisse différencier un site institutionnel garanti d’un site de phishing gentiment validé par let’s encrypt.
Car dans ce cas un État est en mesure d’émettre un certificat pour n’importe quel domaine et présenter ce certificat à la victime en cas d’attaque “Homme du milieu”.
Oui, en supposant que l’état détourne le flux depuis l’opérateur - ok, je comprends et je suis d’accord. L’impact est fort, la probabilité encore faible, mais ça fait un risque non négligeable (contre lequel plusieurs sites sont déjà protégés à minima: ils vérifient l’émetteur du certificat - je le dit en utilisateur de proxy avec déchiffrement :) ) Je réagissais message qui parlait de résumer cela à l’instauration étatique d’un homme du milieu: c’est UNE brique (essentielle, primordiale), mais loin d’être la seule pour instaurer un MIM.
Je trouve déjà préoccupant que des gens aient utilisé Opera avec son proxy intégré (qui était un MIM) et que google se propose de faire un nouveau proxy pour accélérer internet - mais là ça passe crème puisque ça sert aux gens à contourner la sécu de leur boulot ou les géo restrictions, ou parce que internet ira plus vite pour eux.
Il faudrait donc simplement limiter les états à pouvoir gérer des certificats depuis une liste de domaines qui leur seraient dédiés, plutôt que d’être un émetteur de certificat générique.
Le
06/11/2023 à
10h
14
SebGF a dit:
Qu’est-ce qui fait qu’un certificat Let’s Encrypt ne serait pas au même niveau techniquement ?
Techniquement, Let’s encrypt est nickel.
Ce qui me gêne c’est que pour tout un chacun, le certificat let’s encrypt est affiché de la même façon par le navigateur qu’un certificat avec validation de l’identité.
Dans le principe, le certificat let’s encrypt ne garanti rien du tout. Il sert juste à activer le SSL (qui n’est pas toujours utile selon le type de site).
Quand j’achète un certificat, le vendeur a au moins une adresse de facturation, un minimum d’infos. On peut se retourner vers lui qui est le “tiers de confiance” qui est censé gérer. La démarche de prendre un certificat était censée montrer que l’organisme qui possède le site web a un minimum de “sérieux” - et garantir qu’un site n’est pas abandonné.
Let’s encrypt a tué ces deux notions avec un renouvellement automatique sans frais et aucune vérification de qui demande le certificat ou de trace réelle.
Tout repose donc sur le DNS. C’est un retour en arrière de mon point de vue pour le web en général. Pour corriger il faudrait que les certificats validés soient différent et mis en avant, pour bien dissocier le web “tout venant” du web “institutionnel” ou “commercial pro”
Le
04/11/2023 à
10h
31
ragoutoutou a dit:
Ce qu’il faut absolument, c’est que les navigateurs affichent clairement quand il s’agit d’un certificat d’une autorité imposée plutôt qu’une autorité de confiance.
Tout à fait. Et arrêter de trouver que let’s encrypt soit de même niveau qu’un “vrai” certificat.
Je vois bien l’objet, légitime, de cette demande. Mais la mise au point est effectivement floue.
RuMaRoCO a dit:
Est-ce que résumé la situation par c’est l’institution d’un “Homme du milieu” étatique est un abus de simplification ?
Totalement. Ca n’a rien à voir, sauf si tu utilises un proxy.
Enfin AMD et NVidia et Mediatek, mais j’ai rien lu sur Intel encore
Intel va devoir encore ravaler sa fieré après s’être séparé de sa branche AMR il y a une vingtaine d’année…
Moi je rêve de puces AMD Risk-V 😍
Non. D’abord parce que Risk-V n’existe pas, mais Risc-V oui. Ensuite parce que les première puces seront IOT et pas du tout performantes. Enfin parce que au final, quand on en est à des puces de ce genre de perfs, Arm ou RISC-V c’est juste la façade… rien n’indique qu’en interne il reste encore beaucoup du jeu d’instruction extérieur.
ragoutoutou a dit:
Personnellement, je ne suis pas pressé de voir Microsoft passer à ARM, car il est probable que le matériel se retrouve complètement verrouillé façon Apple mais avec Microsoft aux commandes.
Je ne vois pas le rapport. D’ailleurs Linux existe sur Apple M1 (pas grâce à Apple, mais bon…). Ce serait ridicule de faire le l’ARM verrouillé alors que d’autres OS comme ChromeOS existent déjà.
Ce n’est pas ARM mais microsoft qui a verrouilé la surface RT, puisque des Windows 10 Arm ont été installés sur d’anciennces machines comme les Nokia.
Je pense que le passage à ARM va surtout limiter les ressources nécessaires pour fabriquer, et dans l’avenir ça risque de peser lourd dans le prix.
Le
01/11/2023 à
07h
56
refuznik a dit:
« si rapide qu’elle en devient effrayante » Qu’ils commencent déja a rattraper les archi. x86, nos cg et après on verra.
Les derniers “benchs” sont prometteurs de ce point de vue à, que ce soit côté Apple, Qualcomm (en mode émulation de PC, démonstration sur davinci resolve) et même mediatek (avec es avancés des émulateurs x86 open source sur ARM sous Linux, ça progresse - en termes de FPS selon le jeu ça peut être 100% de la vitesse comme 10% entre le mode x86 émulé et ARM natif)
Et si tu colles aux softs Apple, les M1/M2 sont très impressionnants de fluidité. C’est super agréable et peu de PC peuvent rivaliser. Et avec l’écran correspondant, les PC sont dans la même gamme de prix (bon, avec 16Go de RAM, extensibles au niveau du SSD - rarement sur la RAM, ça c’est absolument incomparable)
La faille touchant MacOS me semble moins grave, pour une raison relativement simple : les puces d’Apple sont utilisées uniquement dans les produits Apple, et il n’y a quasiment pas de serveur Apple,
Tout à fait d’accord.
fred42 a dit:
Je vais acheter des actons Nvidia alors !
Je force le trait, mais ça montre la limite du modèle actuel. Toutes les ressources partagées sont plus ou moins attaquables.
Le
29/10/2023 à
10h
24
mrintrepide a dit:
Sur le noyau Linux, sur x86, il n’y a pas une mitigation qui flush le cache, forcé ou avec changement de contexte du processus ?
Il y a plein de mitigations maintenant: que seuls des threads de même process s’exécutent sur le même coeur, de flusher le cache, de garder des infos sur l’espace mémoire de la carte graphique…
Dans quelques temps, la nouveauté sera que le navigateur sera un hyperviseur et que chaque onglet sera une VM, t il faudra une carte graphique par onglet pour la sécurité…
Ah si tu as un lien, envoie stp, ça me fera ma dose de rire pour au moins une demi journée :)
Non, c’est du vécu, en 2001 et 2006. Du bon gros made in France. La même boîte les 2 fois. La 1ère fois, c’était un fabricant de téléphone mobile. Certains ont explosé dans les mains des utilisateurs.
Le
27/10/2023 à
09h
42
ragoutoutou a dit:
Le tout soudé c’est bien si c’est bien conçu, mais ce n’est pas exempt de fragilités, les soudures, ça travaille et ça casse parfois…
C’est valable pour tous les équipements, et il y a très peu de pannes maintenant (sauf quand un abruti remplace l’underfill par de la colle :) )
Objectivement, un ordi basé sur un soc contient moins de matière, par contre, tout dépend de la fréquence et de la méthode de renouvellement… Un composant qu’on réutilise grâce à la modularité pollue toujours moins qu’un composant qu’on doit faire recycler, et dans les pays émergents, les filières de recyclage sont généralement moins développées que chez nous.
Je suis tout à fait d’accord. Mais je n’ai pas d’exemple concret de réutilisation réelle de composants “modulaires”. En général, pour la grosse masse des ordis d’entreprise, actuellement on change l’ordi complet même si mettre un SSD aurait suffi.
L’intégré peut être réparable, c’est une question de priorités dans les principes de design. En pratique, les fabricants de smartphones nous ont bien montré que la réparabilité était une chose qu’ils préféraient éviter.
La bonne époque des Allwinner A20: ces SOCs étaient lents, car castrés, au bénéfice de la possibilité de (presque) tout un chacun de les utiliser/réutiliser/ressouder sans équipement (très) particulier. Mais cela nécessite de limiter le nombre de broches, donc de pourrir les bus.
Et malgré cela, c’est comme pour les Z80: j’en ai récupéré plein partout (même dans des cafetières…) j’ai joué avec un, mais au final … j’ai acheté une nouvelle puce pour mes projets…
Mon avis: Apple n’a pas tout à fait tort: faire une machine “bourrine” qui dure 10ans dans l’état, chère, c’est plus écolo (au vu de la société actuelle) qu’une machine pleine de promesses d’ouverture vers une évolution, moins chère mais qui dans les faits sera très rarement upgradée et plutôt remplacée à 5ans.
Pour mettre ça en perspective avec les 3 R
Le
27/10/2023 à
07h
08
ragoutoutou a dit:
Mwais… a priori beaucoup de vent pour le moment… depuis le temps qu’on dit que l’architecture ARM va tout remplacer…
1987 :)
Mais je pense qu’il y a ici un rapprochement entre 2 visions de l’informatique:
La vision occidentale très ancrée dans le modèle IBM-PC de l’époque (modifiable, paramétrable, …. vieille et percluse de vieilles légendes, conservatrice)
La vision des pays dont-on-ne-sait-plus-le nom (ex tiers monde/pays émergents?) dont la vision est à plus bas coût (le PC modifiable, c’est cher et potentiellement fragile - le tout soudé c’est fiable), détachée de Microsoft, de Apple (et de tout notre vieil héritage: ASCII)
D’un côté plus écolo aussi (green-washing ou réel, aucune idée): je pense qu’un mini PC ARM, basé sur un carte mère de téléphone, avec 3 puces et 200 pistes, coûte moins cher à la planète que la carte mère d’un PC, avec des puces réparties, 2000 pistes, 8 couches, plein de connecteurs qui ne serviront jamais…
Perso depuis une démo dans les années 90 d’un ordi basé sur un ARM et bardé de bus USB, je pense que la solution est intéressante en bureautique, et encore plus avec le bus USB de maintenant.
Reste que le côté intégré fait peur chez nous, car c’est réputé non réparable.
Le
27/10/2023 à
06h
54
J’ai pas bien compris l’histoire du GPU:
dans l’article: La partie GPU Adreno a reçu le même traitement. Elle serait ainsi deux fois plus performante -> je n’ai pas trouvé l’info dans la vidéo
Par contre, des captures et de la vidéo, tout est comparé “à consommation identique”. Je ne sais pas si c’est une projection ou un test réel.
-> D’après les graphes ils comparent la performance relative à la conso. C’est bien, mais ça ne veut pas dire grand-chose en performances brute: si l’iGPU AMD tourne à 10W et le Adreno à 2,5W, même si le Adreno fait 2x mieux à conso équivalente, ça risque de rester la moitié de la perf de AMD.
Ceci dit, ça n’enlève pas que ça semble être des puces tout à fait INtéressantes pour du desktop.
La question serait: peut-on trouver des chiffres concernant la conso de matières 1ères nécessaires à la construction d’un ordi basé sur ces ARM vs un ordi “classique” (version comparable quand même) histoire de voir si cette évolution est dans l’air du temps?
(quote:2162042:dvr-x) Je ne vois pas trop le rapport avec la news, les technologies du web ce n’est pas vraiment leur priorité dans la quête d’indépendance.
1-matériel 2-logiciel
(quote:2162042:dvr-x) La Chine n’est pas là pour ouvrir l’informatique au monde entier, mais pour le refermer justement, en maitrisant tous les maillons de la chaine.
Ils ouvriront ce qui les fait briller. Vers leurs alliés, ou vers le monde. Pour montrer leur hégémonie, actuellement ils doivent couvrir du terrain occupé par les américains - donc ouvrir des technos, poser des standards, et rentrer dans la tête des gens.
Le
27/10/2023 à
07h
26
Intéressant.
Ils ont la capacité de renverser l’actuel immobilisme qui pousse à la conso de data et de traitement, et des programmes qui comblent les trous des protocoles.
Bref, s’ils arrivent avec un remplaçant à la chaîne HTTP+cookies/Serveur web qui fait comme il peut, et la chaîne HTML5 mal pensé/incomplet(penser aux formulaires qui n’ont pas évolué suffisamment par exemple) et JS, je pens eque j’y jetterai un oeil très intéressé.
Il faut comprendre que pour les autres cultures, l’informatique est extrêmement désagréable: la plupart des outils gèrent les dates à l’occidentale, sont en anglais ou tout autre langue qui se lit de gauche à droite, et a des limitations dignes des années 80 (comme de nombreux sites qui ne supportent que des caractères ASCII+).
Imaginez être un enfant qui parle et écrit Arabe, qui a un ordinateur à l’école mais qui ne peut taper que du texte avec d’autres caractères.
Installez un système en Cyrillique juste pour voir: il faut jongler entre 2 claviers.
Les japonais avait fait un taf considérable dans les années 80⁄90 de leur côté, mais même nous nous avons succombé à l’hégémonie américaine et ça a laissé un arrière goût amer (vous n’avez jamais entendu quelqu’un vous parler des dates américaines? ou pester sur l’utilisation du point comme séparateur décimal?)
Bref, il est temps que l’informatique s’ouvre au monde ENTIER.
Les AGL ? … disons que les fonctionnels ont fini par comprendre que le dev c’était un vrai métier et que les ordinateurs ne peuvent pas faire n’importe quoi n’importe comment.
D’où la bulle “nocode” :) (c’est ironique: je suis dev, et en même temps je chapeaute une petite équipe, et le nocode c’est bien trop limité pour être utile suffisamment régulièrement)
Concernant .NET sous GNU/Linux, j’ai eu un REX sur le sujet où l’aspect le plus marquant est que ça marche mieux avec de meilleures perfs que sous NT
J’ai pas tout à fait le même vécu (les perfs sont très similaires). Toutefois c’est selon la charge: les charges réseau sont très efficaces sous Linux, mais Linux n’a pas d’antivirus installé. De même, pour les charges BDD légères, SQL Server sous Windows se montre meilleur que sous Linux (et meilleur sous beaucoup de connexions que mysql ou postgres - même infiniment meilleur que mysql)
Ce qui plombe, entre autres, les perfs de l’architecture x86 vs ARM / RISC V c’est la gestion des changements de mode d’exécution.
Oui, ils se sont alourdis énormément avec les différentes failles et problèmes d’exécution. Mais c’est aussi l’OS. On compare souvent des x86 Windows avec des téléphones ou les apple qui ont soit été épurés, soit n’ont rien de la complexité soft d’un PC. Le nombre de threads que gèrent Linux et Windows sur un PC est affolant. En ajoutant que depuis quelques années certains context switch sont accompagnés de context switch niveau du hardware (notamment la CG pour éviter les failles), ça devient délirant. Imaginez que si un clavier évolué existe, avec des fonctions qui permettraient de lire l’historique du clavier, il faudrait aussi faire son contexte switch quand on change de processus!
Enfin, le x86 aurait pu être mieux, si on l’avait utilisé correctement ave cles différent niveaux de ring. Trop tard, c’est abandonné.
Ce qui plombe le x86 aussi, c’est son architecture vieille où le CPU doit tout faire, doublé d’un nombre alarmant de systèmes de sécurité lié à son histoire.
Bien sûr, on peut parler de l’ISA - mais au final même un ARM ou un RISC-V n’exécute pas directement le code assembleur qu’il reçoit mais fonctionne en interne comme un x86 (en RISC-V, c’est déjà une frontière entre les 2 types d’implémentation: le tout câblé basse conso mais peu rapide, et le “émulé”).
Quant à Apple avec ses puces M1 et M2 … disons que Jim Keller étant parti de chez Apple (pour faire les Ryzen chez AMD), disons que les évolutions de ces puces vont être équivalentes à celles des iPhone après la mort de Steve Jobs : CàD cosmétiques sans réelles évolutions technologiques.
Il n’y a pas qu’un seul génie au monde. Apple a (re-)ouvert la voie pour l’ARM sur desktop, en faisant des monstres. Perso je pense que dans les M1/M2, il y a des transistors qui sont là pour optimiser rosetta2, mais c’est basé juste sur un avis perso et la tronche du CPU. L’évolution pour moi c’est de virer ces morceaux qui deviendront inutiles.
Ensuite, il faut faire évoluer un produit par vagues: si on ne stabilise pas le socle, on ne sait pas ce qu’il faut évoluer.
Le
25/10/2023 à
19h
47
TNZfr a dit:
Ça me fait penser aux discours de consultants expliquant que l’UML permettrait à un fonctionnel de faire du code, de le packager…
D’où ma ref aux terminaux java :) D’ailleurs c’est devenu quoi les AGL?
Ils partent de beaucoup trop loin pour être en mesure de proposer un truc opérationnel avec ce qu’il propose à base de technos x86 aujourd’hui.
Pas tout à fait d’accord. Avec powershell et DotNet core open sources, l’environnement ‘récent’ est prêt. Ceci dit, si wasm se développe, ça fera un clou en plus (en même temps que redynamiser la possibilité d’appli universelle toute plate-forme, ce vieux rêve qui a été régulièrement poignardé depuis les années 80)
Le
25/10/2023 à
14h
44
Vekin a dit:
Il est clair que l’émulation x86-64 est indispensable. Ils avaient tenté le coup à l’époque, mais c’était imparfait et très lent. Cela dit, l’espoir est permis quand on voit l’efficacité de Rosetta chez Apple.
Et les performances de Box64 et Fex-Emu dans l’opensource.
TNZfr a dit:
MS a beaucoup d’adhérences fortes avec Intel (x86) au sein de Windows.
Peut-être que ce n’est pas directement destiné à Ms, que Ms raccroche les wagons:
Avoir de l’ARM peut à baisser les coûts d’acquisition client -> marchés émergeants
AMD et NVidia qui vont dans l’ARM = 2 grands noms du serveur et du poste client qui vont dans l’ARM = changement dans le marché et reconnaissance “officielle” de Arm niveau grand public = “coucou les laissés pour compte de l’informatique américaine, on vous a compris, on arrive”
Le tout dans le cloud ouvre la possibilité d’un client quasi sans OS: bye bye windows, coucou les rêves du milieu des années 90 genre terminal Java
Windows sur ARM, ça ressemble au chant du signe, à un “je suis pas mort”. Pas à un nouveau départ.
Merci ! J’ai commencé à lire, ça n’a pas l’air si sorcier. Faut juste que je trouve le temps.
Oui, c’est juste énorme. Et en pratiquant un peu, on peut séparer la partie config de la partie technique. Et même mettre un affichage c’est facile. Et c’est porté sur d’autre plate-forme comme la rpi 2040 (dommage d’ailleurs que ça ne marche pas avec une rpi standard)
Le
25/10/2023 à
07h
58
ForceRouge a dit:
Un N100 complet, avec sa RAM et son stockage, à la prise 230V à 4W idle (avec un OS qui tourne hein)?
Oui, c’est le cas.
Sinon, j’ai choisi de mutualiser les RPI dans un seul PC. Et le choix ça a été mini PC i5 “35W”: ça consomme 12W à la prise en fonctionnement (donc proxmox qui tourne + le firewall + homeassistant + les serveurs minecraft “à vide” + le OpenMediaVault) - et quand il faut passer l’antivirus sur les 2To de stockage, ça passe sans broncher niveau perfs.
Mais oui, je suis d’accord, le dimensionnement est important.
Après j’ai commencé les RPI day-1, et j’ai donc une longue expérience de défaillances avec la 1, un peu avec la 2, et des bizarreries avec la 3, donc je ne suis pas confiant avec ce matériel.
Après, si t’es chaud pour m’aider à porter mon code sur un ESP8266, je prends.
Un N100 complet, tu vas arriver autour des 8/9W idle, et bien plus en charge Un Rpi 3 que j’utilise pour mon home assistant par exemple, avec 2 clé USB (zwave et zigbee), ca tourne avec moins de 3W et c’est plus compact.
Le 5 consomme vite 3W, et 10W en full. Quand au N100, on est plutôt sur 4W en Idle. Pour info, le NUC Celeron N2820 à l’époque, c’était 5-6W en idle déjà. Ca remplaçait une RPI très facilement, puisque les charges qui faisaient 100% de la RPI2 faisaient quelques% du Celeron…
Un “Rpi1 zero W” avec un exporter pour récup la TIC du Linky, 3% de CPU, 35Mo de RAM utilisé (OS + exporter), c’est déjà surdimensionné.
Clair, un ESP8266 est plus intéressant . Directement alimenté par le port du linky :)
Le
24/10/2023 à
08h
41
seboquoi a dit:
Bon mais du coup, comparativement à un N100 et hormis le gain en consommation, quel est encore l’intérêt de cette carte ? En tout cas pour un usage serveur maison/bidouille.
Ca dépend du projet / du niveau d’intégration voulu
Même avec une déontologie forte, il est difficile de ne pas voir les NOMS des dossiers/fichiers par exemple qui sont parfois évocateurs (AVOCAT, etc.), ou les VIGNETTES des photos du dossier Images une ou deux secondes le temps de faire CTRL+A/C… Il y a un risque d’oublier des données si l’on tente d’éviter ça.
Oui, ça peut arriver - même si d’habitude je recopie les répertoires utilisateurs à l’aveugle (en général avec Robocopy)
Un cas amusant a été qu’un pseudo-technicien précédent avait mis un raccourci dans Documents qui renvoyait vers C:\Sauvegarde de l’ancien PC\ alors que je vais machinement dans C:\Users et je suis donc passé à côté. Oui je suis un danger pour votre vie privée. Tâchez d’éviter de m’appeler
Ou encore mieux: ne pas avoir besoin de toi :) Notamment en sauvegardant.
Le
23/10/2023 à
12h
47
Stanitalia a dit:
Autant je comprends les arguments pour avoir les mots de passe: c’est du réel, et les gens veulent que ça marche. pas que ça démarre. Autant je ne comprends pas pourquoi pendant une copie vous “voyez” passer le contenu. Pour copier vers un autre disque/SSD, il y a des outils (DISM est intégré) et permet de copier une image (bon, dernièrement hors fichiers onedrive - mais bonne nouvelle: on s’en moque puisque Windows les restaurera)
RuMaRoCO a dit:
Si vous saviez le nombre de personnes qui PREFERE donner leur mdp + code lors d’un remplacement de PC
Tout à fait d’accord. Les gens qui voient leur PC comme un outil, ils te mettent le ot de passe au marqueur dessus, ou au mieux te le crient. Pas besoin de demander. Pour certains (même des jeunes), le mot de passe c’est une contrainte incompréhensible, ça fait partie du mot d’emploi: pour démarrer l’ordi, cliquer là et taper “Nono2003?”.
Le
23/10/2023 à
08h
36
Trooppper a dit:
Ca etonne qui franchement ? Et qui ne l’a jamais fait en réparant le PC des potes ?
Tenté: oui. Fait: non, jamais. Je me serais senti très mal je pense.
Mais j’ai constaté que la déontologie, c’était pas le fort d’au moins 1 admin sur 2.
Ca doit être pour ça que s’il faut rechercher dans les anciens emails des directeurs des preuves/traces de messages, c’est à moi qu’on file le taf.
(quote:2160743:Akhagé) Vraiment pas dégueu à ce prix. Dommage que le processeur ne soit pas multithreadé,
Il a 4C, donc c’est “multithreadé”.
Sinon, je trouve l’arrière très dégueux, surtout à cause des antennes. Des antennes “patch” dans le cube, ça ne marcherait pas? Quitte à mettre en façade et au-dessus du radiateur avec possibilité de logo dessus? Je comprends bien que les antennes sont du côté des câbles, mais une antenne façade est parfois bien pratique pour le BT, et ça aurait quand même fait deux horribles excroissances en moins.
Comme quoi, pour le moment les gens râlent et “menacent” de se désabonner avec les augmentations successives, mais ne passent pas à l’acte
Je pense que c’est plus la “vague” liée aux restrictions de partages de comptes. Autour de moi, ça se désabonne pas mal. L’effet de mode est passé. Et je vois pus de gens qui s’abonnent 2-3 mois pour rattraper une série, puis coupent.
À la lecture de nombreux commentaires à propos du thème et du nom du nouveau site, j’ai l’impression qu’il y a un déséquilibre entre le fond (le contenu) et la forme sur Next.
Perso, après la 1ère réaction plutôt émotionnelle, es remarques:
L’accueil manque cruellement d’accroche, tout en étant agressif car trop clair
Passé l’illustration qui prend toute le 1er écran, la lecture des articles est superbe. Le plan (qui ne fonctionne pas au clic, dommage) + contenu, le choix de police, la taille, le zéro distraction autre: tout me va niveau présentation!
A l’impression: dommage, le bandeau mange le début d epage sur les PDF, donc pas facile d’exporter un article vers la liseuse
Le
18/10/2023 à
15h
11
Cqoicebordel a dit:
Pour moi, les podcasts seraient bienvenus uniquement une nouvelle voie d’accès _aux même contenus_ :
+1. Je suis friand d’écouter les transcripts news plutôt que les lire. Je reviens sur l’écrit quand j’accroche, mais les podcasts me permettent de vraiment gagner du temps. Mais je n’aime pas les vidéos.
Le
18/10/2023 à
15h
09
eglyn a dit:
On dirait mon dentiste qui me rassure avant une intervention
Perso ça me ressurerai: mon dentiste fait bien son boulot. Son remplaçant aussi, mais sans rien dire pour rassurer/expliquer - et ça c’est stressant.
J’imagine quelle remplacera avantageusement leurs équipes de développement (notamment les chefs de projet) qui selon un modèle humain ne répondent pas. Ou alors sans avoir lu.
Comme je l’ai mis au-dessus. Le téléphone sert de périph passwordless mais ce n’est pas le seul autorisé. Il est d’ailleur recommandé de mettre plusieurs MFA sur un compte.
Et d’un autre côté, un vrai MFA, ce serait d’autoriser l’accès par une autre personne physique de confiance. Pas par soi-même.
Le
12/10/2023 à
20h
58
Freeben666 a dit:
Franchement c’est le pied. Pas de mot de passe à taper, tu reçois une notif sur le tel, à valider en tapant le numéro affiché, rien de plus simple.
Je me fais l’avocat du diable: on fait comment si là où on travaille on ne capte pas le tel? (genre au milieu d’une usine sans Wifi ouvert) Et ça veut dire que dans le futur proche, tous les élèves, collège inclut, auront besoin d’un téléphone pour se connecter?
Perso, je ne suis pas du tout pour la solution du tel. C’est lourd, agaçant (je n’ai pas toujours mon tel), limite navrant niveau ressources…
C’est intéressant, même s’il reste un truc que je ne comprends pas. Il a reçu un .pdf dont le contenu était en réalité un .scr.
Mais pourquoi Windows continue d’exécuter des scr? Et pourquoi pas dans une Sandbox? Et qu’est ce que c’est que ce pirate boomer qu se sert des scr?
(quote:2157533e Compet) Je crois que linux ne se sert pas de l’extension mais du type du fichier.
Ça dépend du soft, mais oui normalement sous Linux c’est les 1erq octets qui servent à déterminer le type. Windows utilise l’extension par soucis de perf à l’époque (vu qu’on ne lit que la table du fs, c’est rapide), alors que lire le début de chaque fichier serait très lourd.
misocard a dit:
Et je pense que vu que le PDF ne s’ouvrait pas et qu’il ne se passait “rien” sur le PC il n’a pas réfléchi plus loin.
On peut même imaginer dans ce cas qu’il ‘aura lancer 4 ou 5 fois, pour voir si ça démarre
3768 commentaires
Il y a 40 ans, Microsoft annonçait pour la première fois Windows
13/11/2023
Le 13/11/2023 à 16h 16
Non, je maintiens: les CPC permettaient de faire du traitement de texte et de la mise en page. J’ai récupéré 2 Atari ST qui étaient utilisés en pro pour de l’illustration de publicité.
Ces ordis on les voit surtout comme des machines de jeu, mais elles existaient aussi pour travailler.
Le PC1512 était mon 1er PC perso :) - j’ai appris le tableur sur calcomat…
Le 13/11/2023 à 09h 29
IBM avait publié les specs du BIOS. Techniquement, l’IBM-PC était assez ouvert.
Exactement. C’est ce qui a tué les Amiga, Atari ST et autres. Dans les années 80, même les Amstrad CPC étaient utilisés dans le monde pro.
Ce qui a propulsé Ms, c’est les clones de PC à bas coût. Et ce qui a permis que les clones existent, c’est que le soft n’était pas maîtrisé par le constructeur principal.
IBM a franchement perdu avec l’IBM PC (notamment dès que des concurrents comme Compaq sont apparus)
Pour en revenir à Windows, le 1 et le 2 sont anecdotiques. Ils étaient à peu près au niveau de GEM.
Le 3 a accompagné la percée de l’informatique dans les entreprises. Le 3.1 a tué les concurrents qui avançaient sur le réseau d’entreprise comme Novell
NorthPole, la puce des labos d’IBM particulièrement efficace pour l’inférence neuronale
13/11/2023
Le 13/11/2023 à 14h 16
Ca se rapproche du “In memory computing”.
L’architecture avec un CPU central est on goulot d’étranglement - pas par sa vitesse de calcul, mais plutôt par son nombre de canaux, et l’architecture qui consiste à lire en mémoire et y réécrire après le calcul.
Le rendu graphique a permis de s’orienter vers la super-parallélisation.
L’IA va certainement aller vers d’autres types d’architectures, notamment sur l’accès mémoire (lecture puis écriture séquentielle “plus loin”).
Un peu comme les puces mémoires de certaines TV milieu 90 qui permettaient de lire en ligne et d’écrire en ligne en même temps.
Mais surtout, ça me fait penser que les “accélérateurs” d’IA (NPU, KPU et autres) actuellement intégrés aux appareils dans les CPU et SOCs et annoncés à grand renfort de marketing risquent bien d’être vite inutiles et inutilisés en cas de changement d’algo/de paradigme (c’est déjà le cas, la plupart de ces unités ayant des limites de fait qui ne sont pas contournable “localement”)
Microsoft fête les 20 ans du « Patch Tuesday »
10/11/2023
Le 13/11/2023 à 09h 16
Tout à fait d’accord.
Ton expérience c’est des machines qui ont réussi à passer d’une deb à l’autre.
Mon expérience c’est plusieurs abandons de support sur Linux, pas sur Windows (ou bien plus tard) y compris sur des serveurs en blade. Plusieurs portables devenus totalement instable (OK, leur ACPI n’était pas standard, mais il était supporté avant). Plus récemment, des problèmes avec des SSD et AMD (SSD qui cessent de communiquer en route: c’est plus que gênant - pas dû à Linux en lui-même: c’est le firmware qui déconne ou le BIOS, ou alors passthrough impossible à activer sur carte mère AMD - je suis repassé à Intel) . Actuellement, Debian sur desktop reste un peu problématique avec les mises en veille aussi chez moi (ordi pas vraiment en veille ou ordi qui ne redémarre pas à chaud).
Au final, Linux me donne une confiance limitée dans le support matos - pas du fait de Linux en lui-même actuellement, mais du fait des constructeurs.
Linux reste l’OS de mon serveur perso, et plusieurs initiatives me donnent beaucoup de satisfaction:
En prod, je ne suis pas prêt de retenter du linux baremetal pour des serveurs critiques. De plus, le support Linux coûte souvent aussi cher sur serveur que les licences Ms Datacenter.
De même, je constate que nos éditeurs qui fournissent des VM tardent énormément à valider de nouveaux Linux - les VM fournies sont souvent en Debian 8 ou 9, et tous les patches ne sont pas passés - et notre contrat de support saute si on les passe nous-même.
Si les patches dans l’opensource sont dispos rapidement, ils le sont aussi chez Ms - le patch tuesday est un “service” de distribution généralisé, et qui a un rythme plutôt bien calibré je trouve pour les pro.
Qu’il faille redémarrer une fois toutes les semaines n’est pas un si grand mal: beaucoup d’applis ne sont pas faites pour ne pas redémarrer actuellement, même sur serveur (les serveurs web notamment ont tous un moyen de “redémarrer” soit en forkant soit brutalement). De plus, avec le “numérique responsable”, éteindre les serveurs dans les périodes calmes devient courant.
Enfin, en cas de HA, un cluster avec une veille active + bascule auto est souvent plus facile à gérer que du “toujours actif”, que ce soit sous Linux ou Windows ou autre.
De mon point de vue, Windows et Linux c’est plus selon disponibilité des applis et intégration à l’environnement - mais aucun n’est réellement meilleur que l’autre
(et Windows a toujours cet avantage: on ne peut pas vraiment agir avec le login d’un autre, alors qu’un fois root sous Linux, on peut usurper l’identité sans trace :) )
Le 12/11/2023 à 22h 12
M.D.R
Linux a les mêmes problèmes que windows. Sur un desktop,le son peut partir en sucette parce qu’on branche/débranche le casque à chaque appel, glisser des fenêtres sur des écran de résolution diférentes fait agrandir ou rétrécir jusqu’à ne plus pouvoir lire ou dépasser de l’écran, des applis de base comme les panneaux de contrôle dépassent de l’3cran en 1366x768, il faut cliquer au clavier et à l’aveugle des boutons ok/annuler, des mises à jour font que des logiciels/panneaux ne s’affichent plus tant qu’ on n’a pas effacé les fichiers de notre profil…
Et je ne fait que de la bureautique, un peu de prog, du montage et du jeu.
Et j’aime bien l’environnement linux! Mais il les mêmes dégaut et problèmes que windows, mais plus souvent je trouve.
Le 12/11/2023 à 10h 51
Bo, ben je me débrouille mal alors. Ce matin, lancement d’un jeu (Broforce) - plantage - impossible d’arrêter autrement que par le bouton (sur l’ordi de jeux, un MSI).
Un copain me montre le steam deck: “attends, avant d elance rle second jeu, si je le lance après celui-ci (oxygen not included), le framerate est réduit de moitié”
Le desktop sur Linux a au moins les mêmes problèmes que Windows - parce que la conception du DE a en gros les mêmes idées. E si des DE “légers” peuvent être mieux, à la moindre applis Qt ou GTK qui se lance, toute la machine en dessous s’active.
Ben ils ont des conférences très sérieuses, où on peut échanger du bien qu’amène l’opensource (indépendance et conservation de la maîtrise du calendrier), et du taf nécessaire pour undéploiement de certains patchs ou versions de librairies, qui nécessite de tester tous leurs actifs faits en interne - et c’est long.
Et que en gros, comme toute grosse structure, ils refont un “patch tuesday” car sur le bureau on ne déploie quasiment jamais “day-1” à l’aveugle: on le fait par plusieurs temps en laissant au moins des utilisateurs ciblés tester une semaine.
Ms le fait d’ailleurs sur Office 365, et certains presta SAAS ne le font pas et réussissent à casser tous leurs clients d’un coup…
Bref, dire que le patch tuesday est dépassé et ridicule, c’est se masquer la réalité du passage de mises à jour.
(sans compter tous les “power users” et “gamers” qui désactivent les mises à jour car Windows ne sait pas faire et leur a tout cassé une fois il y a 10 ans, donc non)
Le 10/11/2023 à 20h 51
Merci. J’avais commencé une réponse mais j’avais abandonné.
Un peu marre de voir windows bashé alors que des énormesparcs sont gérés avec, le comparer à linux qui est rarement déployé en desktop.
Les Deux os sont bons. Et ce qu’on aime dans windows c’est sa stabilité.
Mettre à jour des serveurs open source en prod, c’est souvent un projet en soi dès qu’ on une infra un peu développée - parce que les pilotes et le support disparaissent, parce que la compil flanche car la source n’est plus compatible avec le compilo, parce que le format du fichier de config a changé, ou un paramètre par défaut, ou l’emplacement, ou parce qu’une nouvelle fonctionnlité a disparu…
Pour info, c’est du vécu.
Alors oui, windows j’ai aussi eu des soucis, mais si on met en proportion du nom re de serveurs, moins. Et la Doc était meilleure sous windows avec le msdn (maintenant c’est moins top)
En pro, on ne cherche pas la dernière nouveauté ou changer tous les deux jours, on cherche la stabilité (la pérennité) - et autant des serveurs de plus de 10 voire 15 ans sous windows j’en ai eu et j’ai pu mettre les pilotes à jour, autant sous linux j’ai souvent eu des ordis qui ont cessé de fonctionner en mettant le noyau à jour.
Et non, je ne suis pas anti linux, mais il n’est pas vraiment prêt pour le desktop, il manque de cohérence . Linux sera orêt pour ça quand windows sera un produit mort sur le desk.
Quand à comparer windows et linux sur serveur… Combien ont réellement essayé windows serveur core pour se débarrasser de la charge gui sur serveur? C’est un très bon produit. Et avec juste ce qui est inclus de base dans un windows, administrer un ou 10 serveurs, êtee solo ou en cluster c’est juste simple.
Le 10/11/2023 à 12h 49
Microsoft a tout viré suite aux plaintes et risques liés à l’abus de monopole.
Résultat: quand on installe un Windows, c’est quasi nu, à part des applis tierces qui font caution.
Oui, tout à fait d’accord, mais comme Microsoft a AUSSI traité la faille dans la journée (correctifs déployés le 12⁄09 pour Edge, Skype, Teams et consorts dans le store), j’ai répondu à un affreux troll qui balance du fake pour le bon gros troll anti open source (je ne suis pas du tout anti-open source - juste modéré car je ne trouve pas que Windows soit un mauvais produit et que Linux soit merveilleux)
Juste du dev de base, de l’internet et de la bureautique mais le DE pète un câble. J’ai essayé en X11 et l’autre mode, c’est pareil.
Après, je suis sur une deb upgradé 3 fois - mais mon Windows est un 7 upgradé 8, 10, 11 et ne pose pas de problème.
C’est pas vraiment Linux le problème: c’est l’utilisation en bureau. C’est les distro, les DE, les différents environnements, l’empilement improbable de couches…
En serveur je n’ai rien à dire, le proxmox redémarre rarement hors coupure de courant - c’est en desktop que c’est très aléatoire, c’est le DE qui plante.
Windows serveur core limite bien le nombre de démarrage. Et pas de GUI, donc pour le clickodrome…
Et 60j, même sans redémarrer, tu as tout ton linux à mettre à jour suite à la faille libc (qui est exploitée via des extensions PHPUnit dernièrement, donc ne pas la sous-estimer)
De mon point de vue, Windows et Linux se valent pas mal. Chacun ses défauts. Windows n’est pas le plus performants, le plus stable, mais il est pas mal cohérent. Il peut être lourd. Mais j’ai le choix dans les sources d’applis.
Linux est stable au niveau noyau, mais les envs des applis sont parfois un peu épileptiques (kbus - grr…) et c’est un bazar sans nom dont la doc est totalement éparpillée. Les applis sont celles du gestionnaire de paquets, si j’en sors je suis assez seul au monde (bon, il y a les nouveaux packaging qui changent pas mal la donne).
Le patch tuesday, en entreprise, c’est génial. Implicitement, avec des postes et serveurs en Linux, des PHP et des Wordpress on fait la même chose: revue des mises à jour et passage selon un calendrier.
Un fois par semaine, c’est déjà pas mal, ça met un délai humainement suivable.
Le 10/11/2023 à 08h 24
Vive trolldi.
Tu parles d’une faille desktop. Quand Linux aura à se soucier de faire autant de tests sur desktop que Ms, avec autant de retombée en cas de patch qui pose problème, on verra.
J’utilise Linux quotidiennement - debian stable, kde de base, ordi sans fioriture. Impossible de ne pas éteindre régulièrement l’ordi. Impossible de conseiller cela en déploiement au boulot, à part à multiplier par 3-4 le nombre de hotliners.
Windows est stable (dans son comportement). Il fait dinosaure, mais c’est ce que mes utilisateurs attendent: pas de changement, car on s’en fout des changement en entreprise, des fonds transparents et que le rendu soit optimisé par GPU.
Maintenant, Linux a mis quoi: 7 ans sur un programme opensource comme sudo pour trouver la “faille” qui ressemblait à un backdoor? BSD, c’était du même acabi pour l’exécution à distance simplement par envoi d’un email…
L’opensource ne protège pas du tout de mauvaises intentions. Et à la vitesse où les liens se sont multiplés entre les softs, bien malin est celui qui se portera garant de tout ce m..dier.
Parles-en avec la cellule de la gendarmerie qui prévoit les déploiements: il faut un paquet de monde et ça prend un temps fou pour déployer sur des postes opensource.
iMessage : Google, Orange et cinq autres telcos misent sur le DMA pour contraindre Apple à l’interopérabilité
10/11/2023
Le 13/11/2023 à 07h 32
Ca ne fonctionne pas. Nous avons eu le cas avec nos enfants (messages du type “je serai à telle heure à tel endroit”): les messages arrivent quand tout le monde est à la maison.
Sans compter les messages qui partent en double, ceux qui n’arrivent jamais sur les Apple
Pour le moment, le SMS est bien plus sûr de mon expérience.
Arm annonce un « investissement stratégique » dans Raspberry Pi
06/11/2023
Le 09/11/2023 à 08h 25
Euh, non. ARM a des instructions pour tout ce qui est “utile”. x86/x64 continue à se traîner des instructions plus oumoins marketing ou venant de l’époque ou la RAM était chère et le cycle CPU aussi (genre les comparaisons de chaîne, le calcul en BCD)…
Pour être honnête, il faudrait comparer le CA d’ARM + des fondeurs de puces ARM à celui d’intel - qui est alors dans les choux…
Le 06/11/2023 à 10h 41
Je me suis fait la même réflexion. Ca me paraît être le côté “stratégique”.
Bon, après il y a les clones.
Ca a l’air d’arriver. Et beaucoup d’applis ont des parties en .Net ou même python, ces applis ne souffrent pas de changer d’archi.
Les émulateurs Box64 et FEX ont des performances correctes en binaire. Mais voici un élément de comparaison: en gros, entre lancer une appli en ARM natif et compiler l’appli en x64 et la lancer sous l’émulateur, on perd 50 à 70% de perfs CPU (parfois plus, parfois moins).
Par contre si on est peu lié au CPU, on peut arriver à quasi 100% de la perf “ressentie” (exemple: en comptant le nombre d’images / secondes d’un jeu)
C’est testable sous Android (Winlator) et SBC comme les RPI (box64)
DLSS, FSR, XeSS, et maintenant MetalFX, mais qu’est-ce donc ?
07/11/2023
Le 08/11/2023 à 16h 23
Je serais curieux de voir ce que tu propose comme optimisation. A mon avis, la plupart des jeux sont déjà bien optimisés, peut-être pas “à fond”, mais s’ils le faisaient “à fond” pour chaque architecture et type de config, les jeux ne coûteraient pas le même prix…
Et maintenant mon exemple: et si on streamait à 30 FPS pour sortir du 60, on gagnerait énormément en débit pour streamer des jeux… Je pense qu’au-delà de ce qu’on voit actuellement, le jeu en streaming est une application à venir pour ces algos.
Et que celui qui fera l’algo le plus intéressant/applicable remportera un futur marché: celui des cartes graphiques côté serveur, des serveurs de jeux chez les FAI, et des royalties dans les TV et box des FAI…
Le 07/11/2023 à 19h 45
A une époque (fin 90), S3 travaillait sur des pilotes avec un changement de résolution dynamique si le framerate était trop lent.
Bon, chez eux, c’était encore pus buggué avec ça (leur cartes/pilotes avaient tendanc eà ne pas afficher toujours la bonne texture :) )
Les FSR et autres m’y ont fait penser.
Mais ça me fait penser à autre chose: le jeu en streaming. On peut peut-être faire le rendu et compresser en “basse” réso et passer le FSR côté client?
Les navigateurs web devront-ils accepter les certificats de sécurité imposés par les autorités ?
03/11/2023
Le 06/11/2023 à 10h 30
Il va falloir que ça change. Qu’on puisse différencier un site institutionnel garanti d’un site de phishing gentiment validé par let’s encrypt.
Oui, en supposant que l’état détourne le flux depuis l’opérateur - ok, je comprends et je suis d’accord. L’impact est fort, la probabilité encore faible, mais ça fait un risque non négligeable (contre lequel plusieurs sites sont déjà protégés à minima: ils vérifient l’émetteur du certificat - je le dit en utilisateur de proxy avec déchiffrement :) )
Je réagissais message qui parlait de résumer cela à l’instauration étatique d’un homme du milieu: c’est UNE brique (essentielle, primordiale), mais loin d’être la seule pour instaurer un MIM.
Je trouve déjà préoccupant que des gens aient utilisé Opera avec son proxy intégré (qui était un MIM) et que google se propose de faire un nouveau proxy pour accélérer internet - mais là ça passe crème puisque ça sert aux gens à contourner la sécu de leur boulot ou les géo restrictions, ou parce que internet ira plus vite pour eux.
Il faudrait donc simplement limiter les états à pouvoir gérer des certificats depuis une liste de domaines qui leur seraient dédiés, plutôt que d’être un émetteur de certificat générique.
Le 06/11/2023 à 10h 14
Techniquement, Let’s encrypt est nickel.
Ce qui me gêne c’est que pour tout un chacun, le certificat let’s encrypt est affiché de la même façon par le navigateur qu’un certificat avec validation de l’identité.
Dans le principe, le certificat let’s encrypt ne garanti rien du tout. Il sert juste à activer le SSL (qui n’est pas toujours utile selon le type de site).
Quand j’achète un certificat, le vendeur a au moins une adresse de facturation, un minimum d’infos. On peut se retourner vers lui qui est le “tiers de confiance” qui est censé gérer.
La démarche de prendre un certificat était censée montrer que l’organisme qui possède le site web a un minimum de “sérieux” - et garantir qu’un site n’est pas abandonné.
Let’s encrypt a tué ces deux notions avec un renouvellement automatique sans frais et aucune vérification de qui demande le certificat ou de trace réelle.
Tout repose donc sur le DNS. C’est un retour en arrière de mon point de vue pour le web en général. Pour corriger il faudrait que les certificats validés soient différent et mis en avant, pour bien dissocier le web “tout venant” du web “institutionnel” ou “commercial pro”
Le 04/11/2023 à 10h 31
Tout à fait. Et arrêter de trouver que let’s encrypt soit de même niveau qu’un “vrai” certificat.
Je vois bien l’objet, légitime, de cette demande. Mais la mise au point est effectivement floue.
Totalement. Ca n’a rien à voir, sauf si tu utilises un proxy.
Nouveaux iMac et MacBook Pro M3 (Pro/Max) : des performances, mais une tarification en décalage
31/10/2023
Le 01/11/2023 à 13h 41
Intel va devoir encore ravaler sa fieré après s’être séparé de sa branche AMR il y a une vingtaine d’année…
Non. D’abord parce que Risk-V n’existe pas, mais Risc-V oui. Ensuite parce que les première puces seront IOT et pas du tout performantes. Enfin parce que au final, quand on en est à des puces de ce genre de perfs, Arm ou RISC-V c’est juste la façade… rien n’indique qu’en interne il reste encore beaucoup du jeu d’instruction extérieur.
Je ne vois pas le rapport. D’ailleurs Linux existe sur Apple M1 (pas grâce à Apple, mais bon…). Ce serait ridicule de faire le l’ARM verrouillé alors que d’autres OS comme ChromeOS existent déjà.
Ce n’est pas ARM mais microsoft qui a verrouilé la surface RT, puisque des Windows 10 Arm ont été installés sur d’anciennces machines comme les Nokia.
Je pense que le passage à ARM va surtout limiter les ressources nécessaires pour fabriquer, et dans l’avenir ça risque de peser lourd dans le prix.
Le 01/11/2023 à 07h 56
Les derniers “benchs” sont prometteurs de ce point de vue à, que ce soit côté Apple, Qualcomm (en mode émulation de PC, démonstration sur davinci resolve) et même mediatek (avec es avancés des émulateurs x86 open source sur ARM sous Linux, ça progresse - en termes de FPS selon le jeu ça peut être 100% de la vitesse comme 10% entre le mode x86 émulé et ARM natif)
Et si tu colles aux softs Apple, les M1/M2 sont très impressionnants de fluidité. C’est super agréable et peu de PC peuvent rivaliser. Et avec l’écran correspondant, les PC sont dans la même gamme de prix (bon, avec 16Go de RAM, extensibles au niveau du SSD - rarement sur la RAM, ça c’est absolument incomparable)
iLeakage, la faille qui exploite Safari et les puces Apple pour faire fuiter des informations
27/10/2023
Le 29/10/2023 à 15h 08
Tout à fait d’accord.
Je force le trait, mais ça montre la limite du modèle actuel. Toutes les ressources partagées sont plus ou moins attaquables.
Le 29/10/2023 à 10h 24
Il y a plein de mitigations maintenant: que seuls des threads de même process s’exécutent sur le même coeur, de flusher le cache, de garder des infos sur l’espace mémoire de la carte graphique…
Dans quelques temps, la nouveauté sera que le navigateur sera un hyperviseur et que chaque onglet sera une VM, t il faudra une carte graphique par onglet pour la sécurité…
Qualcomm : Snapdragon 8 Gen 3 pour le mobile haut de gamme, Snapdragon X Elite pour prendre d’assaut les PC
26/10/2023
Le 27/10/2023 à 20h 22
Non, c’est du vécu, en 2001 et 2006. Du bon gros made in France. La même boîte les 2 fois.
La 1ère fois, c’était un fabricant de téléphone mobile. Certains ont explosé dans les mains des utilisateurs.
Le 27/10/2023 à 09h 42
C’est valable pour tous les équipements, et il y a très peu de pannes maintenant (sauf quand un abruti remplace l’underfill par de la colle :) )
Je suis tout à fait d’accord. Mais je n’ai pas d’exemple concret de réutilisation réelle de composants “modulaires”. En général, pour la grosse masse des ordis d’entreprise, actuellement on change l’ordi complet même si mettre un SSD aurait suffi.
La bonne époque des Allwinner A20: ces SOCs étaient lents, car castrés, au bénéfice de la possibilité de (presque) tout un chacun de les utiliser/réutiliser/ressouder sans équipement (très) particulier.
Mais cela nécessite de limiter le nombre de broches, donc de pourrir les bus.
Et malgré cela, c’est comme pour les Z80: j’en ai récupéré plein partout (même dans des cafetières…) j’ai joué avec un, mais au final … j’ai acheté une nouvelle puce pour mes projets…
Mon avis: Apple n’a pas tout à fait tort: faire une machine “bourrine” qui dure 10ans dans l’état, chère, c’est plus écolo (au vu de la société actuelle) qu’une machine pleine de promesses d’ouverture vers une évolution, moins chère mais qui dans les faits sera très rarement upgradée et plutôt remplacée à 5ans.
Le 27/10/2023 à 07h 08
1987 :)
Mais je pense qu’il y a ici un rapprochement entre 2 visions de l’informatique:
D’un côté plus écolo aussi (green-washing ou réel, aucune idée): je pense qu’un mini PC ARM, basé sur un carte mère de téléphone, avec 3 puces et 200 pistes, coûte moins cher à la planète que la carte mère d’un PC, avec des puces réparties, 2000 pistes, 8 couches, plein de connecteurs qui ne serviront jamais…
Perso depuis une démo dans les années 90 d’un ordi basé sur un ARM et bardé de bus USB, je pense que la solution est intéressante en bureautique, et encore plus avec le bus USB de maintenant.
Reste que le côté intégré fait peur chez nous, car c’est réputé non réparable.
Le 27/10/2023 à 06h 54
J’ai pas bien compris l’histoire du GPU:
-> D’après les graphes ils comparent la performance relative à la conso. C’est bien, mais ça ne veut pas dire grand-chose en performances brute: si l’iGPU AMD tourne à 10W et le Adreno à 2,5W, même si le Adreno fait 2x mieux à conso équivalente, ça risque de rester la moitié de la perf de AMD.
Ceci dit, ça n’enlève pas que ça semble être des puces tout à fait INtéressantes pour du desktop.
La question serait: peut-on trouver des chiffres concernant la conso de matières 1ères nécessaires à la construction d’un ordi basé sur ces ARM vs un ordi “classique” (version comparable quand même) histoire de voir si cette évolution est dans l’air du temps?
La Chine multiplie les efforts pour remplacer les technologies occidentales
27/10/2023
Le 27/10/2023 à 08h 48
1-matériel
2-logiciel
Ils ouvriront ce qui les fait briller. Vers leurs alliés, ou vers le monde. Pour montrer leur hégémonie, actuellement ils doivent couvrir du terrain occupé par les américains - donc ouvrir des technos, poser des standards, et rentrer dans la tête des gens.
Le 27/10/2023 à 07h 26
Intéressant.
Ils ont la capacité de renverser l’actuel immobilisme qui pousse à la conso de data et de traitement, et des programmes qui comblent les trous des protocoles.
Bref, s’ils arrivent avec un remplaçant à la chaîne HTTP+cookies/Serveur web qui fait comme il peut, et la chaîne HTML5 mal pensé/incomplet(penser aux formulaires qui n’ont pas évolué suffisamment par exemple) et JS, je pens eque j’y jetterai un oeil très intéressé.
Il faut comprendre que pour les autres cultures, l’informatique est extrêmement désagréable: la plupart des outils gèrent les dates à l’occidentale, sont en anglais ou tout autre langue qui se lit de gauche à droite, et a des limitations dignes des années 80 (comme de nombreux sites qui ne supportent que des caractères ASCII+).
Imaginez être un enfant qui parle et écrit Arabe, qui a un ordinateur à l’école mais qui ne peut taper que du texte avec d’autres caractères.
Installez un système en Cyrillique juste pour voir: il faut jongler entre 2 claviers.
Les japonais avait fait un taf considérable dans les années 80⁄90 de leur côté, mais même nous nous avons succombé à l’hégémonie américaine et ça a laissé un arrière goût amer (vous n’avez jamais entendu quelqu’un vous parler des dates américaines? ou pester sur l’utilisation du point comme séparateur décimal?)
Bref, il est temps que l’informatique s’ouvre au monde ENTIER.
NVIDIA et AMD travailleraient sur des CPU Arm prévus pour le monde PC en 2025
25/10/2023
Le 26/10/2023 à 07h 56
D’où la bulle “nocode” :) (c’est ironique: je suis dev, et en même temps je chapeaute une petite équipe, et le nocode c’est bien trop limité pour être utile suffisamment régulièrement)
J’ai pas tout à fait le même vécu (les perfs sont très similaires). Toutefois c’est selon la charge: les charges réseau sont très efficaces sous Linux, mais Linux n’a pas d’antivirus installé.
De même, pour les charges BDD légères, SQL Server sous Windows se montre meilleur que sous Linux (et meilleur sous beaucoup de connexions que mysql ou postgres - même infiniment meilleur que mysql)
Oui, ils se sont alourdis énormément avec les différentes failles et problèmes d’exécution. Mais c’est aussi l’OS. On compare souvent des x86 Windows avec des téléphones ou les apple qui ont soit été épurés, soit n’ont rien de la complexité soft d’un PC.
Le nombre de threads que gèrent Linux et Windows sur un PC est affolant. En ajoutant que depuis quelques années certains context switch sont accompagnés de context switch niveau du hardware (notamment la CG pour éviter les failles), ça devient délirant. Imaginez que si un clavier évolué existe, avec des fonctions qui permettraient de lire l’historique du clavier, il faudrait aussi faire son contexte switch quand on change de processus!
Enfin, le x86 aurait pu être mieux, si on l’avait utilisé correctement ave cles différent niveaux de ring. Trop tard, c’est abandonné.
Ce qui plombe le x86 aussi, c’est son architecture vieille où le CPU doit tout faire, doublé d’un nombre alarmant de systèmes de sécurité lié à son histoire.
Bien sûr, on peut parler de l’ISA - mais au final même un ARM ou un RISC-V n’exécute pas directement le code assembleur qu’il reçoit mais fonctionne en interne comme un x86 (en RISC-V, c’est déjà une frontière entre les 2 types d’implémentation: le tout câblé basse conso mais peu rapide, et le “émulé”).
Il n’y a pas qu’un seul génie au monde. Apple a (re-)ouvert la voie pour l’ARM sur desktop, en faisant des monstres. Perso je pense que dans les M1/M2, il y a des transistors qui sont là pour optimiser rosetta2, mais c’est basé juste sur un avis perso et la tronche du CPU. L’évolution pour moi c’est de virer ces morceaux qui deviendront inutiles.
Ensuite, il faut faire évoluer un produit par vagues: si on ne stabilise pas le socle, on ne sait pas ce qu’il faut évoluer.
Le 25/10/2023 à 19h 47
D’où ma ref aux terminaux java :)
D’ailleurs c’est devenu quoi les AGL?
Pas tout à fait d’accord. Avec powershell et DotNet core open sources, l’environnement ‘récent’ est prêt.
Ceci dit, si wasm se développe, ça fera un clou en plus (en même temps que redynamiser la possibilité d’appli universelle toute plate-forme, ce vieux rêve qui a été régulièrement poignardé depuis les années 80)
Le 25/10/2023 à 14h 44
Et les performances de Box64 et Fex-Emu dans l’opensource.
Peut-être que ce n’est pas directement destiné à Ms, que Ms raccroche les wagons:
Windows sur ARM, ça ressemble au chant du signe, à un “je suis pas mort”. Pas à un nouveau départ.
Le Raspberry Pi 5 passe à la production de masse, les expéditions vont débuter
24/10/2023
Le 25/10/2023 à 19h 41
Oui, c’est juste énorme. Et en pratiquant un peu, on peut séparer la partie config de la partie technique. Et même mettre un affichage c’est facile. Et c’est porté sur d’autre plate-forme comme la rpi 2040 (dommage d’ailleurs que ça ne marche pas avec une rpi standard)
Le 25/10/2023 à 07h 58
Oui, c’est le cas.
Sinon, j’ai choisi de mutualiser les RPI dans un seul PC. Et le choix ça a été mini PC i5 “35W”: ça consomme 12W à la prise en fonctionnement (donc proxmox qui tourne + le firewall + homeassistant + les serveurs minecraft “à vide” + le OpenMediaVault) - et quand il faut passer l’antivirus sur les 2To de stockage, ça passe sans broncher niveau perfs.
Mais oui, je suis d’accord, le dimensionnement est important.
Après j’ai commencé les RPI day-1, et j’ai donc une longue expérience de défaillances avec la 1, un peu avec la 2, et des bizarreries avec la 3, donc je ne suis pas confiant avec ce matériel.
Regarde le projet “esphome”. https://esphome.io
Tu commences par un yaml de base pour esp8266: https://esphome.io/components/esp8266
Tu configures le WIFI comme là: https://esphome.io/components/wifi
Tu inclus le module “teleinfo” (exemple ici https://esphome.io/components/sensor/teleinfo)
Tu fais “esphome run maconfig.yaml”, tu branches la carte, ça télécharge…
Et après, tu peux faire les mises à jour en Wifi!!!
Bon, il reste la partie pour relier électroniquement, tu peux t’inspirer de: https://hacf.fr/blog/esphome-cartes-energy-teleinformation/ (moi ça marche sans le transistor, genre https://faire-ca-soi-meme.fr/domotique/2016/09/12/module-teleinformation-tic/)
Le 24/10/2023 à 13h 19
Le 5 consomme vite 3W, et 10W en full. Quand au N100, on est plutôt sur 4W en Idle.
Pour info, le NUC Celeron N2820 à l’époque, c’était 5-6W en idle déjà. Ca remplaçait une RPI très facilement, puisque les charges qui faisaient 100% de la RPI2 faisaient quelques% du Celeron…
Clair, un ESP8266 est plus intéressant . Directement alimenté par le port du linky :)
Le 24/10/2023 à 08h 41
Ca dépend du projet / du niveau d’intégration voulu
Nightshade, un outil pour piéger les IA génératives d’images
25/10/2023
Le 25/10/2023 à 13h 37
J’adore. De mon côté, je pensais remplacer les photos par des dessins “bonhomme bâton” si je détectait un bot.
Plus de la moitié des techniciens qui devaient réparer un terminal en ont profité pour fouiller dedans
23/10/2023
Le 23/10/2023 à 20h 01
Oui, ça peut arriver - même si d’habitude je recopie les répertoires utilisateurs à l’aveugle (en général avec Robocopy)
Ou encore mieux: ne pas avoir besoin de toi :) Notamment en sauvegardant.
Le 23/10/2023 à 12h 47
Autant je comprends les arguments pour avoir les mots de passe: c’est du réel, et les gens veulent que ça marche. pas que ça démarre.
Autant je ne comprends pas pourquoi pendant une copie vous “voyez” passer le contenu.
Pour copier vers un autre disque/SSD, il y a des outils (DISM est intégré) et permet de copier une image (bon, dernièrement hors fichiers onedrive - mais bonne nouvelle: on s’en moque puisque Windows les restaurera)
Tout à fait d’accord. Les gens qui voient leur PC comme un outil, ils te mettent le ot de passe au marqueur dessus, ou au mieux te le crient. Pas besoin de demander. Pour certains (même des jeunes), le mot de passe c’est une contrainte incompréhensible, ça fait partie du mot d’emploi: pour démarrer l’ordi, cliquer là et taper “Nono2003?”.
Le 23/10/2023 à 08h 36
Tenté: oui. Fait: non, jamais. Je me serais senti très mal je pense.
Mais j’ai constaté que la déontologie, c’était pas le fort d’au moins 1 admin sur 2.
Ca doit être pour ça que s’il faut rechercher dans les anciens emails des directeurs des preuves/traces de messages, c’est à moi qu’on file le taf.
Kubb mini N100 : Bleu Jour lance son mini-PC de moins 0,5 litre sur Indiegogo
23/10/2023
Le 23/10/2023 à 08h 52
Il a 4C, donc c’est “multithreadé”.
Sinon, je trouve l’arrière très dégueux, surtout à cause des antennes. Des antennes “patch” dans le cube, ça ne marcherait pas? Quitte à mettre en façade et au-dessus du radiateur avec possibilité de logo dessus?
Je comprends bien que les antennes sont du côté des câbles, mais une antenne façade est parfois bien pratique pour le BT, et ça aurait quand même fait deux horribles excroissances en moins.
Processeurs Zen 4 : notre comparatif des CPU Ryzen, Threadripper et EPYC d’AMD
20/10/2023
Le 21/10/2023 à 19h 21
Je confirme, c’est suffisant pour Tiny Core.
Ca fait un moment que AMD pousse une taille de cache abondante.
Pour revenir à ce super tableau: toujours pas de version 35/45W annoncée, pour remplacer les “GE”.
FreeBSD 14 est disponible en Release Candidate et prend en charge jusqu’à 1 024 cœurs CPU
16/10/2023
Le 20/10/2023 à 11h 50
Surtout que:
Le 17/10/2023 à 04h 36
En tout cas, le support Wifi n’est toujours pas au top.
Netflix augmente ses tarifs dans de nombreux pays, dont la France
20/10/2023
Le 20/10/2023 à 06h 21
Je pense que c’est plus la “vague” liée aux restrictions de partages de comptes. Autour de moi, ça se désabonne pas mal. L’effet de mode est passé.
Et je vois pus de gens qui s’abonnent 2-3 mois pour rattraper une série, puis coupent.
Next, un pacte : nos changements et engagements pour la suite
18/10/2023
Le 18/10/2023 à 21h 48
Perso, après la 1ère réaction plutôt émotionnelle, es remarques:
Le 18/10/2023 à 15h 11
+1. Je suis friand d’écouter les transcripts news plutôt que les lire. Je reviens sur l’écrit quand j’accroche, mais les podcasts me permettent de vraiment gagner du temps.
Mais je n’aime pas les vidéos.
Le 18/10/2023 à 15h 09
Perso ça me ressurerai: mon dentiste fait bien son boulot. Son remplaçant aussi, mais sans rien dire pour rassurer/expliquer - et ça c’est stressant.
Docaposte lance une solution d’IA générative
18/10/2023
Le 18/10/2023 à 09h 52
J’imagine quelle remplacera avantageusement leurs équipes de développement (notamment les chefs de projet) qui selon un modèle humain ne répondent pas. Ou alors sans avoir lu.
Les prérequis de Windows 11 peuvent être contournés par une simple commande
12/10/2023
Le 13/10/2023 à 04h 57
Et d’un autre côté, un vrai MFA, ce serait d’autoriser l’accès par une autre personne physique de confiance. Pas par soi-même.
Le 12/10/2023 à 20h 58
Je me fais l’avocat du diable: on fait comment si là où on travaille on ne capte pas le tel? (genre au milieu d’une usine sans Wifi ouvert)
Et ça veut dire que dans le futur proche, tous les élèves, collège inclut, auront besoin d’un téléphone pour se connecter?
Perso, je ne suis pas du tout pour la solution du tel. C’est lourd, agaçant (je n’ai pas toujours mon tel), limite navrant niveau ressources…
Cybersécurité : les natifs du numérique seraient bien plus laxistes et blasés que leurs aînés
09/10/2023
Le 09/10/2023 à 16h 53
Mais pourquoi Windows continue d’exécuter des scr? Et pourquoi pas dans une Sandbox? Et qu’est ce que c’est que ce pirate boomer qu se sert des scr?
Ça dépend du soft, mais oui normalement sous Linux c’est les 1erq octets qui servent à déterminer le type.
Windows utilise l’extension par soucis de perf à l’époque (vu qu’on ne lit que la table du fs, c’est rapide), alors que lire le début de chaque fichier serait très lourd.
On peut même imaginer dans ce cas qu’il ‘aura lancer 4 ou 5 fois, pour voir si ça démarre