votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3758 commentaires

Hier à 14h 25

La vache: je l'avais installé sur mon ordi quand j'étais en FreeBSD, donc en période 2000-2006 :)

Hier à 09h 37

Ceci dit, cela ne garanti rien. La source des paquets est-elle vérifiée? Des devs russes prennent-ils part à des paquets système ou manipulant des données sensibles comme les mots de passe utilisateurs? Un paquet stratégique est-il géré uniquement par les US?

Réponse: non. L'origine de la distro ne donne aucune garantie.

Pour faire une distro "souveraine", il faudrait identifier tous les éléments nécessaire à construire l'OS, et en assurer le contrôle.

Et au-delà... faire un système de signature numérique qui dépende de chaînes hébergées en Europe uniquement, et dont le financement serait européen uniquement.

(parce qu'un truc rigolo, ce serait que les US arrêtent de fournir des certificats ou émettent des annulations de certificats en masse :) )

Le 19/11/2024 à 18h 59

J'ai vu les projets de la gendarmerie, j'imagine bien que pour les logiciels c'est l'enfer mais d'un côté, financièrement parlant je me dis que ça doit également revenir au même vu qu'en plus de Win10 tu paies des licences M365 et en plus je crois que la facturation va encore changer (je sais pas si c'est le cas côté entreprise) pour passer sur de l'abonnement côté suite office

Je considère effectivement que payer ou faire en interne, c'est kif kif sur plusieurs années.
Sauf que en compta publique, les "droits d'usage" on les passe souvent en investissement, et les charges salariales nécessaires à faire en interne c'est du fonctionnement -> le budget que les établissement publics doivent réduire.

Le 19/11/2024 à 16h 54

La vraie question c'est est-ce que le coût de l'entièreté des licenses (et du support) achetés chez Microsoft seraient plus important que de payer et mettre en place plusieurs équipes dans chaque pays (avec une organisation à la tête qui aide chaque divisions de chaque pays) qui maintiendraient l'OS et fournirait du support ?

Parles-en à la gendarmerie. Mon dernier contact avec eux, c'est que l'opensource, c'est cool, mais c'est une organisation militaire pour gérer les versions (on parle là de l'opensource "full stack", pas juste l'OS).

Le 19/11/2024 à 16h 50

Parce que le coût de support windows c'est moins cher ? Dans ma boite pour le support informatique (qui a été externalisé) Windows + Suite Office on est sur près de 200€ HT par an et par utilisateur. Et c'est un montant qui est à ajouter à MS 365 bien entendu.

Actuellement, quand tu as le pied chez Ms, les prix sont moins chers que de basculer sur Linux. Sans compter qu'on ne peut pas enlever "un peu" de Ms sans risquer de voir les prix augmenter sur ce qui reste. Leur stratégie commerciale est (très) bien rôdée.

En tout cas, pour le on premise ils sont compétitifs en général. Les boîtes qui font du Linux assoment ou si on baisse le prix on tombe sur une sacré bande de mamaillous...
Bref, Linux ou Ms, actuellement le budget serait assez proche côté OS serveurs. Côté infra de sécu, c'est compliqué: peu de boîte ont la couverture de Ms sur du Linux - et d'ailleurs Ms le couvre en Azure.
Un exemple: chez Redhat, on me propose une facturation à l'instance d'OS. Rapidement, Ms avec les licences datacenter est moins cher et plus souple.

Comptablement parlant, rester sur Ms est un statu quo - migrer est un risque et un surcoût qui ne peut pas être discuté sans une volonté stratégique/politique.

Sauf qu'actuellement, les ressources infos sont concentrées sur la sécu, les usages et la rentabilité des applis - les OS c'est secondaire.

Ceci dit, je guette les opportunités :)

Le 19/11/2024 à 14h 14

Malheureusement, ça ne répond pas à un besoin: le support. Le support Linux est cher, très cher. Entre autres problèmes.

Le 19/11/2024 à 09h 59

Half-Life 1 & 2
Teamfortress 1 & 2
Left 4 Dead 1 & 2
Portal 1 & 2
Counter Strike "2" est sortie en 2023

Bref, chez Valve, soit on ne sait pas compter jusqu'à 3, soit c'est un chiffre maudit :D

Et 5 est hors de question.

Le 18/11/2024 à 11h 26

En fait ils reviennent pas mal en forme sur les derniers lunar lake: AMD se retrouve distancé sur pas mal de jeux hors FSR (mais pas niveau conso).

Le 14/11/2024 à 18h 29

Rick dangerous - je viens de l'acheter sur leboncoin :)
Il y a un monkey island - et sam'n'max - parfait :)

Le 13/11/2024 à 23h 11

ils feraient mieux de faire un prix décent aux abonnés téléphonie seule sur la fibre, où ils sont restés dans la bonne tradition de l'escroquerie du RTC.

"l'escroquerie du RTC."
Je ne vois pas en quoi le RTC était une escroquerie.
Pour le tel, le RTC était infiniment plus fiable et de meilleure qualité que les box IP.
Et je pèse mes mots...

Le 13/11/2024 à 16h 41

BitTorrent est effectivement un bon protocole, mais pas craiment adapté en dehors de téléchargement de gros fichiers.

Et il faut avoir confiance. Remplacer les CDN par du P2P par exemple, ça peut être un très bon vecteur d'attaque.

Le 13/11/2024 à 10h 45

10Mo le gestionnaire de fichiers dans les années 90, ça m'étonnerait. Windows 3.1 complet pesait 8Mo, et 50Mo pour tout Windows 95.

Gestionnaire de fiches (dbase, annuaire de contact, access ...).
Les applis "contact", "messages" étaient implémentées via des gestionnaires de fiches.
Un gestionnaire annuaire + transcription des appels + stockage d'image, l'appli pesait 500ko en Delphi 3.

Le 13/11/2024 à 10h 43

Le truc qui nous plombe c'est l'absence de compression et de redimensionnement d'images.
On va y venir rapidement, mais c'est plus pour des raisons de performances que d'environnement.
Au risque de me répéter, envoyer 6Mo par page (hors économies avec le cache) c'est peanuts en termes de conso élec sur toute la chaine (et donc d'empreinte carbone).

Si d'aucuns en doutent, je peux refaire un calcul rapide ici.

Je resouligne: ce site, en version abonné en tout cas, est un exemple de Frugalité pour un site internet.

Le 12/11/2024 à 20h 51

On peut dire pire sur les téléphones. Consulter ses SMS, c'es plusieurs 10aines (100aines) de Mo alors qu'on est sur une conversation.
Mon ordi consomme moins de ressources à consulter mes emails avec presque 20ans d'historique (bien trié).
Un tel avec 4GO de RAM, il n'avance pas. Un ordi avec 4Go de RAM, je peux faire 2 trucs à la fois sans que ça bronche. Voire plus selon OS et logiciels.
Petit rappel: dans les années 90, des outils type gestionnaire de fiche pesaient 500ko-10Mo. Fonctionnellement, ils sont plus complet que "Messages", l'appli de SMS et autres de mon tel, qui pèse visiblement 177Mo d'appli, 85Mo de données et après c'est le cache, je ne le compte pas.
Si je prend gmail, c'est moins problématique, il pèse 161Mo d'appli, mais malgré ses 9Go de cache, il ne sait pas (plus?) rechercher dans les emails en local...
La dépendance au réseau, et la perte de fonctionnalité ces 10 dernières années est assez effarante.

Le 12/11/2024 à 20h 44

Ouaouh, ça fait 2 minutes de téléchargement pour celui qui est resté en ADSL 512k.
Où sont les mégas ? Avec 18ko de texte et 158ko d'images, il manque encore 4.7Mo. Qu'est-ce ?

Du script, des stylesheet, des images d'illustration. des polices de caractère.

Le 12/11/2024 à 14h 49

Cette page (mode abonné):
* 4,9Mo téléchargés
* 18ko de signes "utiles" texte
* 158ko images
* 190 requêtes
* 1 domaine ou affilié
Soit une efficacité des données plutôt excellente de 0,176/4.9 = 3% de données utiles pour l'utilisateur sur le total téléchargé.

Sur un autre site de news "informatique":
* 7,6Mo téléchargés
* 5ko de signes texte "utiles"
* 80ko d'images
* 240 requêtes
* 42 domaines différents
Ca fait 1% de données utiles transférées ...
... mais c'est pas fini: si on scrolle, de plus en plus de requêtes passent, et on monte rapidement à 20Mo
... et d'ailleurs sans rien faire et sans être encore sur l'onglet, je vois que ça continue...

Ca peut paraître rien, mais je trouve que le web est absolument déliquescent. Ayant travaillé sur des outils en mode terminal, je dois avouer que ça donne la gerbe le développement sur pages web.

Le 12/11/2024 à 14h 35

Réflexe ancienne école, comptabiliser le nombre d'appui sur "entrée". Car c'est là qu'on déclenche les traitements. Donc c'est ce qui coûte.

Le 12/11/2024 à 14h 33

Franchement, vu le contenu des vidéos, les transformer en texte serait déjà énorme. Ca me gagnerait tellement de temps!
Et 1080: on pourrait aller plus loin encore.

Perso, je préfèrerais bannir les vidéos et les remplacer par des animations scriptées (Flash en quelque sorte) si c'est pour avoir un pantin qui débite du texte, et des captures d'écran illisibles pendant une formation.

Le 12/11/2024 à 18h 00

C'est pas en Suède justement que pour profiter d'une augmentation obtenue par un syndicat il FAUT faire partie de ce syndicat? Il me semble que c'est pour cela que tout le monde est syndiqué là-bas: ce sont des centrales de négociation (sans aucun jugement sur le fonctionnement: il y a du bon aussi dans ce genre d'organisation)

Le 08/11/2024 à 11h 37

oui effectivement je dis que il y en toujours eu et il dis que il y en aura de plus en plus mais je ne suis quand même pas d'accord avec ça. Il fait un lien de causalité entre la complexité des systèmes et le nombre de faille matérielles connue qu'il y aura dans le futur. Je suis d'accord que plus un système est complexe plus il y a de chance d'avoir une faille, mais cela peut être compensé par le fait qu'on peut mettre plus de moyen pour les trouver et les corriger avant release. Donc pour moi le lien de causalité n'est pas avec la complexité d'un système mais avec l'étendu des tests fait (test coverage en anglais)

Je n'ai pas de chiffre mais je n'ai pas l'impression qu'il y en ait plus qu'avant au contraire je dirais que il y en a autant et qu'elles sont moins évidente, les failles deviennent ultra complexe à trouver alors qu'avant sur des systèmes moins complexe il y avait des failles pas si dure à trouver. En plus vu que plus de monde s'intéressent à ce genre de faille et leur conséquence on en entends plus parler aussi.

Les GPU sont un bon exemple ils sont aussi complexe que les CPU et ont des failles et pourtant on en entends pas ou presque pas parlé. Next par exemple n'en as pas parlé ou le moteur de recherche de next ne les trouvent pas et pourtant il y en a aussi.
https://www.01net.com/actualites/les-cartes-graphiques-dapple-amd-et-qualcomm-sont-victimes-dune-faille-de-securite.html
https://www.hardwarecooking.fr/nvidia-corrige-8-importantes-failles-de-securite-sur-ses-gpu/

Les failles Spectre/Meltdown sont couvertes médiatiquement car elles sont quasi impossible à corriger, touchent tous les PC depuis 15 ans et la plupart des smartphones -> surface importante.
(intéressant d'ailleurs de voir à quel point Intel semble plus souvent cité qu'AMD, et ARM très très peu cité alors que touché aussi).
Par ailleurs, les marques Intel/AMD, le composant CPU sont les éléments les plus parlants dans un ordi - beaucoup de gens ont une compréhension très limitée des autres éléments. On touche au coeur de l'ordi, ça réagit.

Pour les GPU, c'est légèrement différent: les failles sont plutôt logicielles - tant qu'il y a des failles logicielles suffisamment évidentes, peu de chercheurs iront sur le hardware. Je pense que 80-90% des utilisateurs n'ont pas de notion de leur GPU (je ne parle pas de l'audience de next), surtout si on inclut les téléphones (je ne sais pas du tout quel CPU/GPU j'ai dans mon tel par exemple - juste sa capacité de stockage et qu'il est 5G, ça me suffit). Par contre, en regardant les failles GPU sur les pilotes, je me suis aperçu qu'il y en a un paquet pour des GPU Arm, dont certaines très bien notées - avec Android qui ne se met pas à jour c'est tout bénef.

Mais au-delà des GPU, il y aura aussi les NPU, les processeurs TPM, les cartes Wifi, les SSD - nombre d'éléments dans un ordi sont attaquables, et tous ont de plus en plus de traitements "autonome" (il y a des démos de RAM qui traitent les données). Niveau OS, c'est drôle aussi: lors d'un context-switch, il faut pouvoir prévenir les pilotes et cartes que le processus a changé (la 1ère fuite avec les CG, c'était simplement de pouvoir capturer l'écran du processus précédent).
Quand les éléments NVMe parleront ensemble ça va être drôle aussi (genre la carte réseau qui cause au SSD sans le CPU...).

Les mécanismes de sécu sont en plus maintenant conjointement implémenté entre le CPU, l'OS et ... l'appli! Ca devient impossible à dire qu'on est sécurisé du coup!

Pour se donner une idée de l'ampleur de bazar, on peut reprendre par exemple la sécurité dans Windows. Il y a quelques éléments plus ou moins cocasses qui sont plus sécurisés que les autres: l'imprimante, le fond d'écran, les sons systèmes :) - car pouvoir d'espionnage ou de nuisance maximum - enfin début 2000 :)

Expérience personnelle: j'ai eu un jour un patch à mettre sur des machines. Le cache des cartes RAID était accessible depuis n'importe quelle VM... Oups!

Le 07/11/2024 à 17h 52

Ça, c'est absurde, le problème climatique est réel et majeur, et pourrait mener à un effondrement de la production agricole qui causerait un effondrement de la population humaine. Ce n'est pas une question mineure.

Par ailleurs l'existence d'autres problèmes n'empêche aucunement de s'en préoccuper.

Mais si on parle de l'économie spécifiquement, il a été souvent montré que les dommages causés par le réchauffement seront largement supérieurs au coût de la transition énergétique.

D'un point de vue rationnel et économique (et pour la survie à moyen terme de nos sociétés), arrêter avec le gaz et le pétrole est logique et même indispensable.

Mais on est confronté à toutes les vieilles rentes qui vivent toujours sur l'économie du gaz et du pétrole et cherchent à protéger leurs intérêts, et dont Trump est l'incarnation.

Par exemple le Texas historiquement est le champion du libre marché et de l'absence de régulation pour l'énergie.
Mais maintenant que les renouvelables deviennent moins cher que le gaz et pétrole même sans subvention, ils veulent revenir sur ce principe pour avantager artificiellement les hydrocarbures, démontrant que l'efficacité économique n'est pas leur réelle motivation, plutôt la défense d'intérêts particulier de quelques oligarque locaux et de vieilles rentes.

"Ça, c'est absurde, le problème climatique est réel et majeur, et pourrait mener à un effondrement de la production agricole qui causerait un effondrement de la population humaine. Ce n'est pas une question mineure"

Ce qui correspond à ce que je disais: on ne veut pas sauver le climat, on veut se sauver nous, et sauver notre société.

Et ce qui contredit un peu ce que tu as dis plus haut: "Personne ne mènera de guerre pour se venger d'émissions passées ou même futures de CO2" : indirectement, les impacts du climat mènent à des déplacement de populations ou une extension des pays. Et donc potentiellement à la guerre.

Quand aux américains/texans décisionnaires ... je n'en pense que du bien :)
Pour la population, j'imagine que c'est comme chez nous: on se sent pas totalement concernés, pas totalement fautif car c'est pas nous-mêmes mais le système/l'histoire/la fatalité/Donald Trump/Biden ...

Le 07/11/2024 à 13h 58

Exactement comme l'ont fait les démocrates dès que Biden est passé et surtout le camp clinton de manièregénérale. Même topo en france avec les préfets et quelques postes clés.

Il faut s'en prendre à la constitution dans ce cas pas au personnage.

Pas du tout comparable:
* Pour les juges suprêmes, ils sont normalement indépendants - ce qui gêne c'est que trop penchent pour Trump, et qu'ils durent longtemps - après, c'est "temporaire"
* pour les fonctionnaires: aux US, l'administration est politisée. Pas en France, sauf pour les préfets qui sont une représentation locale du ministère de l'intérieur, mais qui n'ont pas de gros pouvoir en fait (enfin, à part gérer la police, ce qui n'est déjà pas mal)

Le 07/11/2024 à 13h 55

Ça en devient complètement ridicule ce genre de commentaire, à vous lire on croirait qu'il y a eu une junte militaire qui a pris le pouvoir.

Bah c'est dans ses promesses il me semble: d'être un dictateur et que les citoyens votaient pour la dernière fois. Il l'a dit pendant sa campagne.

Le 07/11/2024 à 13h 54

Amha, le climat ne sera pas le principal souci. Au pire on va mettre un bémol pendant 4 ans a tout ce qui prétend le sauver.
Il y a de bonnes chances d'avoir des problèmes bien plus immédiats avant hélas.
J'aimerais voir la tronche des dirigeants européens qui ont acheté du matos US contre protectorat s'entendre dire une Chirac: Les promesses n'engagent que ceux qui y croient...

Si on replace correctement les choses: c'est pas le climat qu'on veut sauver, ni la planète, c'est d'abord nous. Or, on a d'autres soucis à gérer pour nous sauver. Comme l'économie, les gens différents, les gens qui nous aiment pas assez...

Le 07/11/2024 à 10h 50

Le plus drôle, c'est avec les imprimantes Wifi multifonctions :
- impression : aucun problème
- scan : appareil hors ligne (mais je viens d'imprimer mille milliards de mille sabord !!!)

True story :craint:

Pour ma part, les imprimantes, j'appelle les imprimantes "les périphériques du diable".

Oui, c'est incroyable comme l'impression a toujours été une galère.
Ceci dit, j'ai tendance à utiliser les pilotes PCL3/5/6 intégrés directement, sans passer par l'install windows.

Le 07/11/2024 à 08h 25

La téléphonie fixe étant de nos jours de la téléphonie sur IP, tu y gagnes quoi par rapport à un appel en VoWifi ou via une application ? (Vraie question qui m'intéresse ;) )

La disponibilité... Le VOWifi et les applis sont de meilleure qualité que le fixe (je suis chez Free, le fixe est même en panne régulièrement avec une voix de robot ou jusqu'à 20s de délai entre question et réponse ...)

Mais quand je suis chez moi:
* je n'ai pas mon mobile tout le temps et je ne l'entends pas si je ne suis pas au même niveau (alors que j'ai un tel par niveau)
* je ne capte pas la xG partout - surtout pas dans les pièces à vivre - et quand bien même j'aurai répondu, je ne dois plus bouger, et la nuit je dois sortir car les volets (alu) coupent toute onde
* tous les mobiles de ma maison ne sont pas VOWifi, quand à la fiabilité du VoWifi, je n'ai pas retesté, mais c'était pas top.
* comme on travaille, une fois sur 2 nos tel sont coupés niveau sonnerie
* Quand on téléphone à la maison, on ne sait pas forcément si la personne a son mobile près d'elle ni qui est rentré - et si un enfant répond sur le fixe, ça nous prouve qu'il est à la maison, contrairement au mobile
* le répondeur centralisé, c'est pratique - franchement quand l'assurance ou le poseur de volet appelle sur un portable/y laisse un message, je dois transmettre à ma femme (et inversement) selon qui sera dispo pour répondre.

Le 06/11/2024 à 08h 37

Je ne crois pas que les offres B&Y visent les poweruser. Il faut regarder du côté d'offres pro plutôt. (et l'ipv4 fullstack, c'est powerpapiuser quand même, l'ipv4 c'est en interne, pas en externe, ou bonjour les problèmes depuis certains réseaux smartphone)

Le 06/11/2024 à 08h 34

l'époque a changé:
la téléphonie mobile est largement plus utilisée que la fixe, les box TV sont à l'intérieur des télés ou dans des machins/adaptateurs usb/hdmi vendus hors opérateur, triple play c'est le passé.

Tout à fait. Quoique la téléphonie fixe reste très utilisée par chez moi, surtout en hiver :)

Le 07/11/2024 à 08h 19

Tu te trompes. Nous sommes déjà dedans et il nous faudrait une pilule rouge pour nous en sortir.

Non, je ne me trompe pas: pilule bleue pour oublier et rester dedans notre "réalité"

Le 06/11/2024 à 11h 10

Ca finira par des IA qui parlent aux IA. Gros gâchis de ressources en perspective.

Le 06/11/2024 à 11h 09

J'adore l'illustration. Pour le reste... pilule bleue pour tout le monde.

Le 06/11/2024 à 00h 13

Oui les ISA sont devenus assez bordéliques, et je pense qu'une partie provient de la complexité croissante des processeurs qui deviennent de plus en plus "diversifié". Une autre partie provient des ballons d'essais, d'évolution (unités vectoriels passant de 128 -> 256 bits), de choix marketing...

Néanmoins tout les processeurs sont des risc à l'heure actuelle si on regarde dans les détails. Les x86 sont certes des CISC, mais dès le tout début du front-end du CPU, tu as une conversion des instructions en micro-opérations, qui ressemble furieusement à ce que tu as en risc. Est-ce une bonne chose ? Honnêtement je ne sais pas à l'heure actuelle. Les deux approches ont des avantages et inconvénients.

Mais néanmoins je pense que ce n'est pas nécessairement un problème de langage. Il existe un langage pour ça, et c'est l'assembleur. Les langages de haut-niveau s'appuie dessu via un interpréteur (compilateur, JIT...).
Je pense que le soucis concerne la capacité du compilateur a comprendre un code ou une fonction dans sa globalité et comment l'optimiser avec les bonnes instructions. Il y a, selon moi, une responsabilité majeure des développeurs qui, pour la très grande majorité, ignore comment fonctionne un ordinateur, et par conséquent n'ont pas connaissance de ce genre de détails et son impact.
Mais finalement, bien que non-idéal, on s'y retrouve sous la le bon outils pour la bonne tâche.
VLC est en majorité codé en C++, et tu trouves de l'assembleur pour les fonctions les plus critiques (e.g., en/decoders).

Je n'ai malheureusement jamais joué avec l'architecture PowerPC :( Mais je ne perds pas espoir avec la possiblité d'en louer ou d'en acheter un). En revanche, de ce que j'ai vu de son fonctionnement, elle a des trucs sympathiques.

Je te rejoins à 100%, l'x86 n'est pas mort ni à court ou moyen terme. Et oui, merci à AMD pour le double pumping qui ouvre la voie à de possibles folies (AVX-2048 ? :fume:). Apple ouvre une voix pour le particulier, mais c'est aussi la face visible d'un iceberg (Graviton, Ampère, Axion...).

Je vais conclure là-dessus:
- tout à fait d'accord, RISC ou cisc, ce n'est qu'une façade. Et même RISC-V n'est qu'un ensemble d'ISA, l'implémentation 'hardwired' d'un RISC-V est possible, mais ne permet pas les performances d'un CPU qui redécoupe/réorganise
- en termes de langages, je connais fortran et ses extensions (MPI/OpenMP) que j'ai utilisé il y a plus de 20 ans sur du code matriciel et 64 CPU. Je n'ai pas compris que fortran ne soit pas utilisé avec le GPGPU et le SIMD.
- pour les dev, c'est très variables. Mais j'estime que dans les outils bureautiques/internet, les CPU sont sollicités essentiellement pour de la comparaison de chaîne (indexation des colonnes, des attributs par nom, interprétation de scripts, de XML, de HTML...) +le chiffrement (donc multiplication et division entières). Tout soft de compta utilise une représentation parfaite des nombres (donc pas de virgule flottante) et ces opérations n'ont pas de bench généralement (bon, un peu avec les benchs bdd). Donc se poser la question de comment ma structure va tomber avec les pages mémoire ou si mes nombres sont alignés et si ma boucle passe en cache... C'est loin de 90% des dev.
- est-ce que les Apple M ne ressembleraient pas un peu aux transmeta?

Le 05/11/2024 à 21h 11

Sympa, Peux-tu m'expliquer le lien entre CISC, la difficulté du compilo et les x97 de perf ? Je n'arrive pas à saisir ton point.

Actuellement les cpu sont une jungle. Les ISA sont pleines d'extensions, certaines remplaçant les autres, d'autres à mi-chemin d'être un NPU.
Mais les langages 'classiques' sont incapables de gérer correctement ces instructions. C'était d'ailleurs le constat dans les années 80 qui a amené le RISC et les 1er ARM: l'adoption de compilos haut niveau faisait disparaître l'usage des instructions cisc (par exemple, un x86 a des instructions de calcul en mode quasi texte ou de recherche qui ne correspondent à rien dans les langages).

Bref, je te donne raison sur l'intérêt de bien connaître son archi.

En même temps ces annonces ARM me rappellebt les années 90 quand IBM/Apple faisaient du Power PC (et les difficultés d'IBM à sortir le meilleur des power pc - ainsi que la difficulté de prédire comment allait se comporter le cpu ce qui gênait les dev en assembleur).

Bref, même si Apple a un excellent CPU, je n'enterrerait pas le x86 avant un moment. (Tout en remerciant AMD de montrer à Intel comment implémenter AVX512)

Le 05/11/2024 à 10h 48

"Autant ce sont des informations précieuses quand on fait des compilateurs CPU, autant sur des machines ultra hétérogènes et des traitements répartis comme maintenant, ça a peu d'intérêt je trouve, sans compter que l'IPC ARM et l'IPC x64 sont non comparables, surtout si on parle d'IPC de type AVX ou autre."

Tu es dans le vrai pour le compilateur. En revanche je ne suis pas en total accord pour la suite. Certaines de ces informations sont pertinentes pour des cas d'usages. Le TLB a une énorme importance pour les accès mémoires, sa profondeur et la taille des pages peut avoir une influence non-négligeable sur certains scénarios mais connaître aussi le nombre d'unités FPU sont des détails importants. Pas uniquement pour les compilateurs ou des applications spécifiques, mais aussi pour voir l'évolution d'une architecture et éviter le discours marketing.

Même si ton architecture est très hétérogènes au sein de ta puce (CPU, NPU, GPU...) il n'empêche que c'est intéressant en soi d'avoir les informations propres à chaque partie et à leur interconnexion, indépendamment du fait que tu réalises plus de calculs d'un type que d'un autres.

Bonne question pour VLIW, je ne sais pas pour le CPU. Par contre pour le GPU et le DSP c'est plus que probable car c'est plutôt répandu.

*
"Mais c'est du pinaillage: si je développais des compilateurs ça m'intéresserait, mais pour de l'utilisation, ce qui m'intéresse c'est plus le confort (qui n'est pas totalement /uniquement lié aux perfs théorique d'un CPU)"*

Et moi ce qui m'intéresse, au delà du confort, c'est d'avoir un processeur adapté à mon usage. Si je dois acheter (ou louer) ce type de machine, j'aime savoir ce qu'il y a dedans à minima pour faire un choix éclairé.

Après je tiens à préciser: Mme Michu & co n'ont clairement rien à faire de ceci. La notion même de fréquence ou de coeur de calculs sont très loin dans leur critère d'achat. Elles préfèrent des arguments plus "marketing" que techniques. Et sur ce point, elles achèteront Apple pour ce qu'Apple représente et non ce qu'Apple a mis comme génie dans la puce.

Petit complément pour illustrer un peu la situation actuelle, où le CISC (et cela touche aussi ARM avec les différentes extensions d'ISA) reste difficile à mettre en place dans les compilo: x.com Twitter

(en espérant que ce x94 en perf n'équivaut pas à générer un film en noir et blanc :) )

Le 04/11/2024 à 19h 10

"Autant ce sont des informations précieuses quand on fait des compilateurs CPU, autant sur des machines ultra hétérogènes et des traitements répartis comme maintenant, ça a peu d'intérêt je trouve, sans compter que l'IPC ARM et l'IPC x64 sont non comparables, surtout si on parle d'IPC de type AVX ou autre."

Tu es dans le vrai pour le compilateur. En revanche je ne suis pas en total accord pour la suite. Certaines de ces informations sont pertinentes pour des cas d'usages. Le TLB a une énorme importance pour les accès mémoires, sa profondeur et la taille des pages peut avoir une influence non-négligeable sur certains scénarios mais connaître aussi le nombre d'unités FPU sont des détails importants. Pas uniquement pour les compilateurs ou des applications spécifiques, mais aussi pour voir l'évolution d'une architecture et éviter le discours marketing.

Même si ton architecture est très hétérogènes au sein de ta puce (CPU, NPU, GPU...) il n'empêche que c'est intéressant en soi d'avoir les informations propres à chaque partie et à leur interconnexion, indépendamment du fait que tu réalises plus de calculs d'un type que d'un autres.

Bonne question pour VLIW, je ne sais pas pour le CPU. Par contre pour le GPU et le DSP c'est plus que probable car c'est plutôt répandu.

*
"Mais c'est du pinaillage: si je développais des compilateurs ça m'intéresserait, mais pour de l'utilisation, ce qui m'intéresse c'est plus le confort (qui n'est pas totalement /uniquement lié aux perfs théorique d'un CPU)"*

Et moi ce qui m'intéresse, au delà du confort, c'est d'avoir un processeur adapté à mon usage. Si je dois acheter (ou louer) ce type de machine, j'aime savoir ce qu'il y a dedans à minima pour faire un choix éclairé.

Après je tiens à préciser: Mme Michu & co n'ont clairement rien à faire de ceci. La notion même de fréquence ou de coeur de calculs sont très loin dans leur critère d'achat. Elles préfèrent des arguments plus "marketing" que techniques. Et sur ce point, elles achèteront Apple pour ce qu'Apple représente et non ce qu'Apple a mis comme génie dans la puce.

Je comprends bien l'attente.

Apple ne fait plus dans le pro (dans le sens ils ont tué leurs serveurs, leurs téléphones et ordis sont une plaie en réseau encore maintenant).
Ils sont dans la station de travail et très orientés multi-média.
Pour le moment, ils glânent les clients du côté "ras le bol du blabla technique - on veut du résultat" (et je les comprends après 40 ans de "révolutions")

Apple a peut-être de l'or dans les mains, mais ne sautent pas encore le pas pour repartir sur le côté "technique". Pour le détail, peut-être un oeil du côté des forum de Avahi Linux donnera un peu d'idées?

Par contre à part usage extrêmement spécifique, en général il y a beaucoup à faire pour optimiser "aux petits oignons" pour sa machine, que ce soit sur l'algo, la répartition sur els coeurs, le type de parallélisation, la complexité des tâches ... Là on est en présence de CPU+RAM très rapides, ça aide à ne plus se poser trop de questions :)

Le 03/11/2024 à 15h 23

ça dépend de tes usages. De mémoire, les benchmarks génériques n'étaient pas forcément les plus impressionnants. Par contre, dès que tu passes en calculs flottants, le M1 était quand même impressionnant à son époque. Mais c'est quand même un usage assez spécifique je te l'accorde.

Je me sers pas de la com' de ces boîtes. Mais ce qui m’intéresse c'est les détails plus profonds comme l'IPC, la longueur du décodeur d'instruction, le TLB, l'organisation des unités flottantes, la longeur du data path.... Et c'est pour ça que je préfère les slides car ces informations sont parfois accessibles. Et je chérie ces informations car avec tu peux comprendre ce qui se passe dans le CPU mieux que les slides des marketeux sur les perfs du CPU lors de benchmark (dont on ne connait jamais les conditions de tests [OS, température ambiante...])

En ce qui concerne l'ultracomplexicité de l'informatique... Et bien oui l'informatique est une science et c'est très complexe. Rien de nouveaux sous le Soleil. Par contre, la quantité d'informations n'est pas un problème tant que ce n'est pas du bullshit de marketeux (parce que ça c'est vraiment cancérigène).
Après, c'est à chacun de savoir ce qu'il intéresse dans les infos et ce qu'il considère comme utile à garder ou à ignorer pour son analyse. Ce n'est, cependant, pas propre à l'informatique ou même spécifique à ces histoires d'architectures CPU.

"c'est les détails plus profonds comme l'IPC, la longueur du décodeur d'instruction, le TLB, l'organisation des unités flottantes, la longeur du data path"

Autant ce sont des informations précieuses quand on fait des compilateurs CPU, autant sur des machines ultra hétérogènes et des traitements répartis comme maintenant, ça a peu d'intérêt je trouve, sans compter que l'IPC ARM et l'IPC x64 sont non comparables, surtout si on parle d'IPC de type AVX ou autre.

Ce qui m'intéresserait, c'est de voir comment les Apple Mx réorganisent les instructions. Je penche depuis le début pour une réorganisation qui tant vers une exécution proche du VLIW, ce qui expliquerait en grande partie les perfs en émulation.

Mais c'est du pinaillage: si je développais des compilateurs ça m'intéresserait, mais pour de l'utilisation, ce qui m'intéresse c'est plus le confort (qui n'est pas totalement /uniquement lié aux perfs théorique d'un CPU)

Le 31/10/2024 à 19h 20

De mémoire Apple avait communiqué sur son archi pour les M1. Et comme ils développent leur propre puce, ils pourraient avoir des slides similaires à Intel et AMD histoire de jouer "qui à la plus grosse" (ils aiment ça les Ricains) ou bien de dire "Venez chez nous, l'x86 c'est pour les vieux".

C'était assez superficiel quand même pour le M1.

Et les concours de com de Intel et AMD ne servent qu'à une partie des clients, une autre partie d'en moque. Cela contribue même à l'impression d'ultracomplexité de l'informatique. Plus on a d'infos, plus on a de comparaisons à faire, plus il y a de doutes...

Un peu comme vendre une voiture de série en indiquant jusqu'au 0 à 100 par défaut...

Le 05/11/2024 à 15h 39

Sans même aborder les sempiternelles batailles "le message était sur l'ENT" "si vous croyez qu'on est toujours dessus! poster sur notre snap" "non, pas sur le snap, j'y ai pas le droit, plutôt sur le whatsapp" "on a aussi un whatsapp? pourquoi?" "et n'oubliez pas le facebook pour que les parents soient aussi au courant"
Ça, je découvre, avec le passage au collège. Mon avis sur la question n'a finalement pas changé. Les outils de communication numériques ne sont pas un prétexte à la désorganisation. Les messages de dernière minute n'apportent aucune réponse s'ils ne concernent pas un problème urgent. Un prof absent n'est jamais un problème (l'établissement doit accueillir de toutes façons).
Pour l'instant, ça va, mais le premier prof qui me fait cette remarque, il va se prendre un cours de santé psychologique dans l'environnement numérique fissa.

Bon courage lors des sorties scolaires :)

Le 05/11/2024 à 13h 48

Le téléphone est l'outil d'un système logiciel auto alimenté par l'orgueil, la jalousie, la paresse...

Le téléphone aboli les distances et le temps, et de fait l'attente et la frustration, donc l'envie et au final, la satisfaction.

L'ego portrait, summum de l'orgueil, détruit la spontanéité et la réalité, la découverte. On visite pour faire le selfie 'là bas' maintenant...

Oui, le téléphone flatte l'égo, et comme narcisse on se voit dans son propre reflet numérique, mettant une distance avec ceux qui sont à portée de main, de parole.


Bref, moi aussi je peux écrire des trucs bien profonds😁

Le 05/11/2024 à 09h 24

Il faut aussi penser au fait qu'avoir son tel devient obligatoire ou au moins très avantageux.
Exemples:
* les transports n'impriment plus les billets -> tel obligatoire.
* Location de vélo en ville? Tel obligatoire.
* Paiement en ligne? Se connecter à la mutuelle? Tel obligatoire en plus de l'ordi (parce que l'appli est inutilisable sur smartphone)

Problème: c'est souvent profondément inadapté aux personnes handicapées.

Mais cela ajoute aussi quelques effets cocasses.
* Payer les transports à Paris? Tel (compatible) obligatoire (ou passer par un paramétrage de son forfait pour payer par SMS - paramétrage qui ne s'active pas dans la journée... vive les chaussures)
* Se loguer en double authentification via un email (ma mutuelle)? Dommage, gmail ne reçoit jamais le code dans le temps imparti (5 min) car elle arrive sur une adresse non gmail

C'est presque impossible de faire une soirée "déconnectée".
* Connaître l'emploi du temps du lendemain, les devoirs des enfants? Ca arrive par internet, et il faut checker toute la soirée

Au-delà de la comm et de la gêne, il y a une perte énorme liée à l'informatique et au fait que tout le monde ait son terminal (en général le portable): l'organisation...

Sans même aborder les sempiternelles batailles "le message était sur l'ENT" "si vous croyez qu'on est toujours dessus! poster sur notre snap" "non, pas sur le snap, j'y ai pas le droit, plutôt sur le whatsapp" "on a aussi un whatsapp? pourquoi?" "et n'oubliez pas le facebook pour que les parents soient aussi au courant"

Le 05/11/2024 à 09h 15

Quand tu es dans un spectacle plein air nocturne, et que tu vois toute une famille tous en train de filmer le spectacle devant toi, plus plein d'autres spectateurs, tu as donc une armée de tel allumés qui te pourrissent la vue -> difficile de se retenir.
Ca m'est arrivé de leur demander si je pouvais filmer leur portable, car je voyais mal.

C'est assez absurde, j'ai eu ma dose de prise de photo et vidéo: très vite tu t'aperçois que tu ne t'es pas fait un souvenir mais un film. Que tu ne regarderas jamais. Gâchis de ressources informatiques, planétaires et de ticket.

Le 05/11/2024 à 09h 04

Bah ... Intel quoi. Iris Pro? Abandonné. Optane? Abandonné. Edison? Abandonné. HBM? Abandonné.
Ils tuent les technos avant de les pousser réellement.

Le 31/10/2024 à 15h 19

AMD Ryzen 3 8300GE : 13846 sur PassMark
Apple M4 10 Core : 25080

iGPU 3x plus performant.
Connectique Thunderbolt 4
Sortie casque haute indépendance
Boitier aluminium
Alimentation intégrée
Totalement silencieux

C'est le jour et la nuit entre ces deux machines.

Le Mac Mini permet de faire de l'éditing vidéo en 4K et de la retouche photo sans broncher, le tout dans un silence total. Le Lenovo est suffisant pour de la bureautique, à la limite un peu de programmation, mais pas plus.

Certes, la majorité des acheteurs n'exploitera pas la toute puissance du M4, mais qui peut le plus peut le moins.

"AMD Ryzen 3 8300GE : 13846 sur PassMark"
Le lien n'a pas gardé la config. POur être sur le même prix (699€) j'avais choisi un 8500GE - passmark: 22195, c'est déjà plus proche.
Sur cinebench il reste 30% sous le M4 en single et multi.

Pour un peu plus cher que le M4, le 8600GE est un meilleur choix (avec IA).

"Le Mac Mini permet de faire de l'éditing vidéo en 4K et de la retouche photo sans broncher, le tout dans un silence total. Le Lenovo est suffisant pour de la bureautique, à la limite un peu de programmation, mais pas plus."

Je ne nie pas que le M4 soit une bête, et un ordi très silencieux et très classe. Qu'il soit 6x plus rapide - en comparant à un Intel HD770 sur de la photo/vidéo certainement pas mal basé sur le GPU, je n'en doute pas.

Vu ce que je fais avec un 4650GE, je pense qu'on dépasse la bureautique de base :) (jeu, dev, rendu 3D et montage). Ayant eu un NUC avant, les NUC sont très limités face à ces PC qui sont en perf généralement beaucoup plus proches de la tour que d'un portable.

Et le mac mini n'est pas cher, mais il est totalement dans les eaux de ces mini PC qui ont aussi plein d'avantages: extensibilité (le mien a 1To de stockage en second disque et 16Go de RAM supplémentaires ajoutés après, 6 ports USB, 3 sorties vidéo avec la carte à 15€), garanti 3 ans de base - intervention à la maison (testé).

Bref, c'est cool d'avoir le choix, mais je ne panse pas du tout que les mac mini mettent tous les PC indéniablement au placard. C'est juste que la concurrence PC est assez peu connue.

Le 31/10/2024 à 08h 01

Oui, ils auraient dû la mettre dessous aussi.
Edit: Je veux dire: un peu comme les prises manettes de l'atari ST.
Edit2: Bien sûr que c'est une blague à tiroir, on est Jeudredi.

Le 30/10/2024 à 14h 51

6x plus vite que celui-ci? https://www.lenovo.com/fr/fr/configurator/cto/index.html?bundleId=12RQCTO1WWFR1

C'est le même prix. Que Apple soit plus rapide, pas de soucis. Mais je continuerai à prendre ce genre de machine plutôt (le prix peut être baissé en supprimant l'OS: -60€).

Sans compter que j'imagine que pour avoir le 6x plus rapide en montage, il faut adobe premiere, pas shotcut ou openshot ... Ca change aussi un poil le prix.

Le 30/10/2024 à 14h 37

Ca apporte quoi? Si on va à la même vitesse, pourquoi se passer de X11? (avec directfb, on voyait ce qu'on gagnait)

Le 28/10/2024 à 14h 50

Le message m'est adressé ? C'est le paiement par CB que tu trouves archaïque ?

Avec la nouvelle présentation des commentaires j'ai du mal à suivre les discussions.

Oui, c'était en complément de ton message. Je trouve archaïque de stocker des infos 'identifiante' et potentiellement 'réutilisables'. L'iban qu'on fourni devrait étre temporaire ou être un autre système: free ne devrait avoir qu'un numéro d'autorisation, ne fonctionnement que pour free et le compte ciblé

Le 28/10/2024 à 08h 14

Merci surtout de rester avec ce système archaïque. Il ne devrait être stockée qu'un identifiant d'autorisation de prélèvement, pas le reste.
Comme les token.

Le 27/10/2024 à 18h 57

Parce que la batterie et le fait qu'il n'y ait pas de refroidissement actif fait que ça bride un peu le truc je crois.

En tous cas, utiliser un smartphone comme un PC, H24, il va chauffer, ça va exploser la batterie.

Tout dépend de ce qu'on fait. Un tel a assez de patate pour faire du excel/word sans chauffer ni broncher. En bureautique, on monte peu au-delà de 25% cpu, et que en pics.

Le 24/10/2024 à 07h 55

C'est moderne, c'est beau...
Mais en 1366x768, je crois y avoir perdu en surface de lecture. Je suis maintenant très nettement sous les 25 lignes affichées par page.
Bref, un thème VT-52 me conviendrait mieux :)