votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3768 commentaires

Le 08/01/2024 à 13h 40

Je pense surtout que c'est révélateur que les marchés autres que l'occident s'équipent en ordi. Windows est décrié dans les pays asiatique, africains ou simplement d'europe centrale car bien trop occidentalisé. Quelque soit les efforts de Ms pour internationaliser, les origines sur soft transpirent.

Sous Linux, l'empreinte est moins marquée.

Exemple: les chiffres Asie: moins de 3% début d'année, plus de 5% fin d'année.

L'évolution des prochaines années de l'informatique, c'est l'émergence de nouveaux marchés, de nouveaux produits, et une fracture culturelle à mon avis. Que l'on verra aussi dans le hard, les nouveaux marchés accueillant à bras ouvert l'ARM, notre marché étant réticent et très pro x64 par conservatisme.

Le 02/01/2024 à 15h 39

Pour avoir bossé avec eu, Sopra Steria m'a laissé une bonne impression.

Sinon, à part le répressif, cela servira aussi à:
* Identifier les enfants en cas d'enlèvement/disparition
* Identifier les victimes en cas de décès

Oui, il peut y avoir des dérives, mais dans le fond, vu TOUT ce que les gens laissent comme données, le biométrique est plutôt celui qui protège que celui qui vous plombe je trouve.

Le 02/01/2024 à 12h 27

Là il n'y a ni cerveau ni boob.

Je me demande si on ne va pas se transformer en consommateur virtuel: on laisse notre IAvatar surfer pour nous et dénicher les "bons plans" et nous acheter des trucs.

Le 28/12/2023 à 16h 54

Ça s’appelle un vision five 2.
C’est assez expérimental, assez lent pour le moment.
Rien que les maj sont compliquées ( j’ai eu un des premiers lots sur kickstarter) je pense qu’il’faudra encore quelques évolutions hardwares.
Mais je suis optimiste, arm a mis 15 ans avant de défier le x86 en perfs, la il y a du monde qui pousse derrière.

Les deux modèles qui semblent les plus courants sont effectivement les Vision Five et les lichee pi.

L'un est un RISC-V 64GC (multiplication, division, atomicité, virgule flottante simple et double) et l'autre un 64GCV (donc avec des instructions vectorielles en plus).

Les deux sont assez chères, mais se battent en perfs quelque part entre les RPI 4 et 5 (plus proches du 4).

Fonctionnellement, on y est pas encore, les fonctionnalités avancées dans les datasheets niveau multimédia sont encore à venir niveau soft mais ça avance.

Les fonctionnalités de virtualisation/protection sont encore en évolution.

Le 27/12/2023 à 10h 50

Ca existe déjà, mais c'est pas rapide, plus cher, sans carte 3D, ...

Le 27/12/2023 à 10h 46

RISC-V, c'est déjà 36 "standards". Je découvre que l'ESP32 récent est en RISC-V IMAC alors qu'il me faudrait un "F" quelque part.

RISC-V est découpé en tranches pour plus d'adaptabilité: instructions entières, multiplication/division, instructions compressées, virgule flottante, protection mémoire ... toute est "à la carte".

Quand aux implémentations, elles sont à la carte aussi: avec/sans cache, câblé ou en pipeline, in order ou out-of-order... Là on touche à des perfs entre x1 et x3 pour les mêmes instructions.

RISC-V n'est pas le messie attendu dans les CPU, c'est le messaie dans les micro-contrôleurs et l'embarqué. Pour le moment, aucune implémentation ne se mesure à des ARM sortis il y a 5 ans. Et dans le même temps, ARM contre-attaque en faisant des archi pour micro contrôleurs 2x plus performantes que leurs anciennes...

Actuellement, les cartes RISC-V peinent à atteindre les perfs des RPI 1 et 2!

Le 27/12/2023 à 12h 25

On ne parle jamais de DPD,
Ça dépend : DPD est une entreprise de transport. fr.wikipedia.org Wikipedia

Illustré par l'expression: "j'ai été livré par DPD."

Le 21/12/2023 à 08h 28

Et donc être faux - puisque les traductions induisent un périmètre différent de l'original.

Le 27/12/2023 à 10h 40

"on nous a cru que l'on aurait accès à une offre légale complète, peu chère et sans pub"

Tout faux. Je ne sais pas qui y a cru, mais jamais moi.

"À vos tricornes moussaillons"

Appel au piratage? Perso ne je pirate rien. Je crois surtout que je vais repartir sur l'achat physique et le dématérialiser moi-même pour plus de convenance. Ou acheter un lecteur 400BR de Sony.

Le 20/12/2023 à 11h 45

Sauf que tout ce que tu décris, c'est beaucoup de consommation électrique. Soit très peu d'empreinte carbone à l'échelle de la France. Ou de la conso qui aurait lieu aussi en location physique.

Le stockage+sauvegarde+relais+cache, ça émet du CO₂ à la fabrication. Sauf que ce CO₂ est dispatché sur l'ensemble du territoire : c'est tous les français (ou au moins tous les clients) qui profitent de ces équipements. Donc pour simplifier, c'est divisé par 60 millions. Quand tes DVD+borne de location+magasin, c'est pour ~10000 personnes (je parle toujours des habitants, pas des clients potentiels, pour garder le parallèle avec le streaming).
Et plus les équipements sont utilisés longtemps, moins ils émettent de CO₂ (bah oui, le coût de fabrication/temps, puisque l'électricité, en comparaison, c'est peanuts).
Oh et le DVD sur une étagère, faut construire l'étagère (a diviser par une centaine de DVD), faut éclairer l'étagère (fabrication des ampoules), faut mettre les étiquettes de prix, faut la caisse enregistreuse (divisé par le nombre de ventes), et toujours le chauffage, le plus souvent au gaz (beaucoup d'eqCO₂).

Le wifi. Genre, y'aurait pas de VOD, t'aurait pas le wifi chez toi ? Mais bref, encore de l'électricité. Peanuts.
Pareil pour la box.
Par contre, le lecteur DVD, il a fallu le fabriquer, et il est utilisé que pour cet usage.

Les DVD par La Poste, c'est probablement un poil mieux, mais pas tant que ça : le trajet est quand même fait dans un véhicule a essence sur une grande partie du trajet. Certes, à diviser entre tous les colis, mais tout de même. Sans compter l'emballage à fabriquer.
Au boulot, ouais, ça fonctionne pas mal. Mais y'a la fabrication de la galette toute de même. Il reste quand même le local à aménager, mettre la moquette, fabriquer les étals…

Oh et, t'as pas évoqué les DVD fabriqués qui ne sont jamais lus, parce que le film à l'air chiant…

Bref, encore une fois, pour moi, y'a pas photo : sur tous les plans la VOD est meilleure que le physique. A court, moyen ou long terme.

D'après l'ademe, en terme de CO², VOD << DVD (3x) et en terme de ressources, c'est 20% mieux pour la VOD aussi.
Donc clos.
(sauf pour les DVD cars et MM&M chez moi, car vus au moins 100x chacun)

Et oui, mon Wifi passe en veille (bas débit) au bout d'une période d'inactivité.

Pour les DVD non vus, c'est comme pour la VOD: un film non lus en VOD, il coûte en stockage, sauvegarde toute sa durée de stockage.

Le 19/12/2023 à 18h 46

Je ne crois pas que les LLM et autres "IA" génératives soient rentables aujourd'hui. Par contre, je pense qu'elles le seront à moyen terme.
Sur ce point j'ai encore des doutes car il y a un défaut lié à leur fonctionnement qui requiert un entraînement. Les IA génératives ne travaillent que par rétroviseur, elles ont besoin de données existantes pour produire et n'en créent pas réellement elles-mêmes (et les entraîner avec elles-même engendre une une dégradation). Même si une IA générative est capable de produire un contenu original, cela reste avant tout le résultat d'un modèle statistique qui inclus une part d'aléatoire. Pire encore en raison de la censure des modèles qui bride leurs capacités.

Cependant, à chaque fois que le monde évolue, elles auront besoin d'apprendre à nouveau, et donc d'être entraînées, et donc consommer de l'énergie et du temps pour cela. Cette action n'a lieu qu'une seule fois pour qu'un modèle puisse fonctionner, mais elle va devoir être répétée de manière itérative.

A titre personnel, je ne sais pas si avec les méthodes de ML actuelles, ce genre de modèle est viable dans le temps.

Un exemple concret, c'est GitHub Copilot. Les frameworks de langages de programmation évoluent très rapidement, et parfois trop. De ce fait, Copilot est potentiellement à la ramasse sur des technologies récentes et a besoin d'être régulièrement ré-entraîné.

Après, peut-être que l'idée évoquée de modèles plus petits et spécialisés serait une approche plus viable et rentable.

Cependant, à chaque fois que le monde évolue, elles auront besoin d'apprendre à nouveau, et donc d'être entraînées, et donc consommer de l'énergie et du temps pour cela.
Sauf que on peut entraîner une IA avec l'expérience "équivalente" de centaines d'humains, une fois et en 1/2 ans.
Au lieu d'élever et former le même nombre d'humains pendant 20 ans - avec un nombre d'échecs dans le tas.

Sans compter que je n'élève pas l'humain plus haut que l'IA dans 80/90% des activités: on ne fait que régurgiter des schémas dans lesquels on est confortables, qu'ils soient optimaux ou non. Et corriger un humain quoi a une mauvaise habitude, c'est dur. Foi d'informaticien :)

Mais je suis d'accord sur un point: sans rétro action, on peut tromper 1 fois une IA, on peut tromper 1000 fois une IA et on peut tromper 1000 fois 1000 IA.

Sans compter le risque de sécurité que quelqu'un bidouille l'apprentissage pour insérer un pattern qui lui octroie un avantage. Le travail pour déceler et bloquer le pattern risquerait d'être plus important que de refaire tout l'apprentissage à partir des traces (si on sait supprime rle pattern de l'apprentissage).

Niveau maintenance d'IA, on en n'est qu'aux débuts...

Le 19/12/2023 à 18h 38

Il y a déjà des éléments.
Certes. Mais c'est pas optimisé, et comme je le disais, il s'agit d'une première génération.

Preuve?
Sérieusement ? Toute entreprise "physique" est plus polluante qu'une en ligne, à service égal.
Les films non vus ne sont pas polluants ? Pourtant, y'a toute la fabrication du plastique, l'assemblage, le transport, la jaquette à imprimer, les locaux du loueur à chauffer et éclairer…
Et j'ai pas encore évoqué l'essence pour le trajet spécifique pour aller chercher/rendre ces films.
Non, je n'ai pas de chiffres. Et j'ai la flemme de chercher.

Mais il parait évident qu'en comparaison, la VOD consomme rien : stocker quelque gigas (un film), ça consomme presque rien. La bande passante en fibre, ça consomme presque rien également. Le seul truc qui consomme vraiment dans la chaîne, c'est la télé.
Or, ç'aurait été pareil avec un loueur.

Mais il parait évident qu'en comparaison, la VOD consomme rien : stocker quelque gigas (un film), ça consomme presque rien.
Ben c'est pas si évident. Les données mortes, ça consomme. Le stockage, ça consomme, la sauvegarde du stockage, ça consomme. Les relais Netflix et les copies de cache, elles consomment.
Et ça consomme "ad vitam eternam", contrairement une copie physique sur étagère.
Le wifi qui diffuse en permanence dans la maison, il consomme.

Pour un film à grande diffusion, je suis d'accord - sauf que la production du DVD n'aurait été faite qu'une fois, pour combien de visionnages?
Sérieusement, je m'interroge, surtout en tant qu'ancien client de VOD par la poste (échanges de DVD par la poste au lieu de se déplacer soi-même) et ancien utilisateur de vidéothèque du boulot (encore mieux).

Un lecteur DVD, c'est 10W maxi. La box toute seule elle fait 10W, j'ai même pas encore lu un film.


Bref, si on regarde la conso "à l'usage" d'un film, avantage pour la VOD. Si on regarde la conso "à terme", pour que le service de diffusion fonctionne, j'aimerais bien connaître le résultat.

Le 19/12/2023 à 14h 18

Pour le coup, j'ai envie de dire que c'est commun avec tout logiciel.
Oui, mais peut-être pas dans ces proportions (quoique...)
Un très bon article d'introduction à l'IA (de Elektor il me semble) montrait comment apprendre par IA à un Arduino à détecter si une couleur était chaude ou froide par apprentissage.
Classe, éducatif, intéressant. Sauf qu'à la fin, quand l'arduino mouline et calcule pendant des dizaines de secondes, alors qu'un algo peut le faire, on se dit que c'est écraser une mouche avec un bulldozer.

Si l'IA a de nombreuses applications, certaines qui sont poussées mènent à un gâchis de ressources, car des solutions existent.

Par contre c'est un super outil d'investigation/d'expérimentation/de rédaction.

Le 19/12/2023 à 14h 13

Globalement d'accord avec toi. Les LLM ne sont bons qu'a ressortir ce qu'ils ont déjà rencontrés.

Mais justement, je pense que ce genre d'approche peut faire gagner du temps à beaucoup de monde : tu veux faire un courrier de réclamation, une démission, etc., en quelques clics la lettre parfaite est générée.
Et ça, ce n'est qu'une facette de la chose. Il y a déjà des studios de jeux vidéos qui utilisent ces outils pour générer aussi bien le dialogue des NPC, que pour générer des images de fonds, d'assets, etc.

Bref, au final, au lieu d'employer cent personnes, on peut s'en sortir avec dix. Certes, c'est un autre problème, mais clairement, le coût général (et donc environnemental) pour créer un jeu vidéo baisse drastiquement.
(je ne cautionne pas tous ces usages, pour des raisons sociales évidentes, je constate juste)

D'autant plus qu'il s'agit globalement des balbutiement de ces technos. Quand, dans quelques générations, on aura du matos spécifique pour entraîner et générer, le rendement sera bien meilleur.

Quant aux petits modèles, en effet, ils seront extrêmement utiles. Et je pense qu'on les trouvera partout. Ce qui sera d'ailleurs un casse tête quand on essaiera de débugger notre four à micro ondes qui veut pas démarrer…

Quand, dans quelques générations, on aura du matos spécifique pour entraîner et générer, le rendement sera bien meilleur.
Il y a déjà des éléments. Seulement, entre ceux qui ne sont pas dimensionnés pour des modèles trop complexes et de nouveaux modèles d'IA qui permettront de consommer moins mais ne fonctionneront pas sur le matériel actuel, on reste "coincé" entre investir et attendre.

Le 19/12/2023 à 14h 11

on louait des VHS et DVD et c'était au moins dix fois plus polluant
Preuve? Le problème c'est la réfection au global: si effectivement entre la création et le visionnage d'un film la VHS/DVD étaient polluants, pour les films non vus/regardés, ils ne l'étaient pas. Alors qu'un film non regardé en VOD coûte à l'environnement. (Sans compter que la VHS ne coûtait pas tellement cher à l'environnement par rapport à des puces)

Le 18/12/2023 à 08h 48

Il me semblait avoir lu qu'entraîner une IA à partir d'un IA est une pratique encore problématique.

Le 14/12/2023 à 15h 22

Ctrl+Shift+F1 ?

Non, plus rien ne fonctionne à ce moment (peut-être même pas le port série), Ctrl-Alt-F1 ne sert à rien.

Le 10/12/2023 à 09h 41

Je suppose qu'il parviens parfois à fournir une réponse.
Je n'ai jamais eu cette chance.

Entre le message de l'écran bleu (et surtout son code erreur)+observateur d'évènement+minidump, j'ai traqué le problème jusqu'à une fuite mémoire dans un pilote de stockage vmware.
Donc si, ça marche.

Le 10/12/2023 à 09h 40

C'est surtout la faute aux sites qui pullulent et te proposent de résoudre le problème en installant leur logiciel d'optimisation de windows.

Le 10/12/2023 à 09h 39

Le kernel panic est affiché sur la première console texte. Si tu es en mode graphique, tu ne le vois pas. Mais il est bel et bien affiché.

Oui, mais on ne peut plus y accéder en kernel panic, donc débogage série.

Le 08/12/2023 à 16h 42

Mais que reste-t'il à Windows?

Blague à part, c'est juste systemd, l'équivalent du BSOD c'est le kernel panic. Et là mieux vaut avoir un log sur port série actuellement, les kernels panics ne sont plus affichés sur les ordis de bureau (cause: pilotes graphiques, mode graphiques, ...). On a juste un figeage, parfois n'importe quoi à, l'écran mais plus aucune info sur l'écran.

Le 13/12/2023 à 14h 52

A 6 euros par mois, c'est un abo que tu peux laisser activé d'un mois sur l'autre car vite "rentabilisé", alors qu'à plus de 10 euros tu auras peut-être davantage tendance à le suspendre pour ne l'activer qu'une fois tous les X mois (j'en connais pas mal qui font ça). Du coup, ils sont peut-être gagnants.

On peut aussi se dire que à 6€ par mois avec pub vs 10€ par mois sans pub, le 10€ était trop proche et le 6€ pas encore assez utilisé du point de vue de netflix.
Sans compter que "certains contenus ne seront pas accessibles aux abonnées avec pub".
Ce qui donne l'impression que Netflix a un intérêt dans cette formule à 6€ qui représente plus de 4€ par mois au moins dans leurs projections.

Du coup c'est vrai que les tarifs de netflix, c'est un peu le mode de cuisson de la grenouille. Tout comme potentiellement la durée de la pub et la restiction de contenu pour l'abonnement à 6€.

Je pensais me réabonner pour les vacances de Noël, mais finalement je n'y vois pas d'intérêt. à ce prix. Je peux me payer 4 à 10 DVD chez un easycash pour ce prix - ça me fera autant de temps de visionnage voir plus et je n'ai pas à me dépêcher pour regarder. Un stress en moins :)

Le 12/12/2023 à 15h 45

Pourtant, dans le contexte de l'époque, ce chipset ne semblait pas catastrophique, surtout en qualité 3D. À lire ici : https://www.hardware.fr/articles/37-1/intel-i740.html
(faudra que je trouve comment mettre un lien un de ces jours...)

Je confirme, il y en avait une dans le voisinage. Disons qu'elle faisait le job, mais pas d'effet "Waou"

Le 10/12/2023 à 18h 41

Le VGA (1987) prédate windows 3 (1990)... Donc bien de l'époque de la ligne de commande. Le SuperVGA (1988) aussi prédate Windows .

Cet article a un gros problème car il parle de GPU, mais fait référence à de nombreuses cartes ne faisant pas une accélération des traitement géométriques.

De fait, les cartes accélératrices de première génération comme la Voodoo1, la Virge, les ATI mach, RIVA, TNT et autres sont toutes disqualifiées pour le titre de GPU car elles ne font pas de TCL (transform clipping and lighting) et laissent tout ce travail au CPU.

Les premières cartes accélératrices pour PC pouvant être qualifiées de GPU sortirent en 1995, et étaient équipées de la puce dédiée "Delta" (Geometry Processing Unit) de 3D labs, qui secondait l'accélérateur (Glint, puis plus tard Permedia) de rendu et faisait que la carte graphique pouvait enfin alléger la charge du CPU en finalisant le TCL slope/setup et les conversions FP. En 1997, 3Dlabs présente ses jeux de puces glint DMX et GMX incorporant respectivement les unités GPU delta et son successeur Gamma...

Il fallu encore attendre 2 ans pour que NVIDIA sorte son GPU complètement intégré: le geforce 256 qui mettait la barre un cran au dessus question performances et fonctionnalités, démarrant l'ère du GPU pour PC moderne.

*edit corrigé ... j'étais sûr que le delta datait de 94/95 mais je ne retrouvais pas les preuves, j'ai remis la main sur le manuel de référence de la puce, il est daté de Novembre 95.
*edit, ajout des GMX DMX.

Bonne remarqué, surtout qu'il y avait des décélératrices (ou carte accélératroce) 3d comme les S3 (qui en plus se trompaient de texture)

Ceci dit, il me semblait que les cartes faisaient le triangle setup, la projection et le calcul d'orientation pour savoir quelle texture mettre, et dans leur majorité le z-buffering.
C'est quand même une bonne aide pour le cpu,même si ça paraît peu aujourd'hui.

Par contre pas trop d'accord avec l'amélioration d'image avec la 3dfx, j'ai eu la mienne sur le tard quand on en trouvait à 500€ des voodoo2, et le lissage tenait de la myopie, les LOD étaient hyper moches, et leur pseudo-22 bits avec le dithering donnait une impression de vieux. Malgré la relative lenteur et la résolution moindre, la carte ATI rage pro avait de meilleures couleurs

Le 10/12/2023 à 10h 05

Il faut bien le reconnaître, les cartes i740, c'était déjà anecdotique, à la ramasse question perfs (plus proche d'une riva 128 que d'une TNT)...
L'AGP introduit pour cette carte était surtout une occasion pour Intel pour sous-équipper cette dernière question RAM... ce qui était désastreux question perfs dans des jeux qui en demandaient de plus en plus, fait encore aggravé par l'absence d'un support pour la décompression compression de texture.

Vu le nombre de fonctions D3D non supportées, c'était le CPU qui s'en prenait plein la figure.

... et bien entendu, ce n'était pas non-plus de vrais GPU's car aucun accélération liée au TCL.

L'agp et le PCI ont permis une floppée de cartes avec peu de ram (les turbo cache a-t-il et NVIDIA)
Et la i740 était un bon moyen de gamme je trouvais.

Le 12/12/2023 à 15h 40

Faut un bon clavier pour décrire ces algos.

Le 08/12/2023 à 16h 48

Tout à fait d'accord. Par ailleurs, pour avoir réparé un Samsung dernièrement, c'est juste à peu près pareil (sauf la batterie collée): on commande la pièce, on ouvre, on débranche, on enlève les vis, on échange la pièce, on revisse, on rebranche, on ferme et ça marche.
Pas de subtilité, pas de maintien caché ou de vis à 5 branches, moins de 20min montre en main.

Le 08/12/2023 à 16h 45

Non, c'était plus encadré il y a quelques années. Actuellement, on peut mettre -80% direct sur n'importe quel produit, avant il fallait pouvoir justifier avoir vendu ce produit au prix non réduit.

Le 06/12/2023 à 22h 22

Merci pour l'article. Effectivement l'électrique réserve visiblement quelques surprises (j'ai eu vent de quelques anecdotes de voitures qui ne se chargent pas bien vite).
A noter que souvent les hypermarchés ont des bornes et 'offrent' parfois 20 min d'électricité.
La distribution du maillage est encore à parfaire: en zone rurale, les voyageurs peuvent avoir quelques dizaines de km pour trouver une borne (déjà pour la pompe à essence ça peut être dur)
Il y a quelques temps il y avait eu un article sur la différence entre traverser la France nord sud (facile) et est-ouest (moins drôle)

Mais tout cela devrait finir par se réguler: les petits distributeurs vont être absorbés ou couler, les gros vont s'organiser.

Le 05/12/2023 à 12h 00

Quand je vois toutes les personnes qui jouent à Candy crush sur des téléphones à + de 1000 €

Ceci dit, développer pour un écran nomade n'est pas la même chose que viser des gamers en 4K sur un 27".
Le téléphone n'a pas vraiment pris en mode gaming: problème du recouvrement de l'image par le doigt (j'ai fait lego harry potter sur ipod touch, un enfer de cacher l'écran de son doigt), peu d'utilisateurs utilisent un écran externe, problèmes avec les périphériques (latence bluetooth par exemple avec une manette), chauffe excessive qui fait peur aux utilisateurs, intérêt discutable d'un écran QHD sur un tel pour jouer quand un écran externe serait plus approprié?

Par contre, développer un marché assez rentable de jeux moins chers (moins de détails = moins de conception graphique et de tests), dans un monde où rentabiliser les grosses prods est de plus en plus risqué (JV et cinéma) + capturer l'audience (avec une distribution captive - comme netflix et consorts pour la vidéo) ça pourrait le faire.

Bref: step 1: se faire connaître. step 2: faire un abonnement

Nous sommes quand même à un tournant où des pays non américanisés entrent dans le jeu, avec plus de moyens, menant à terme à un recul de Windows et en même temps à un besoin de créer des jeux culturellement plus compatibles.

De nouvelles plate-formes sont donc nécessaires pour accompagner des petits/moyens studios qui ne sont pas prêts à se lancer dans un épique jeu sur PS5.

Pour les gros jeux, les avancées du FSR et consorts sont une brique qui rapproche la possibilité de jeu en streaming massif (genre on te fait un jeu à 20FPS + des indices sur les frames suivantes et tu en as 60 et +)

Je suis curieux de voir la suite, mais je pense que si PS6 il y a, ce sera la dernière viable si Sony ne se réveille pas niveau distribution.

Le 04/12/2023 à 17h 50

Non, il ne mettra pas "tout le monde d'accord". Il sera certainement en retrait sur certains points, bien sur d'autres, mais à un tarif inférieur à se concurrence je pense.

Pour jouer, on peut émuler un x64 sur un ARM via FEX - des jeux sont déjà GPU limited plutôt que CPU limited en émulation.
Mais je ne crois pas que l'architecture x64 soit tellement un boulet - la partie CPU n'est pas la plus importante dans beaucoup de jeux, et les x64 malgré ce que l'on en dit sont efficaces en rapport perf/W. Les coeurs perfs des téléphones sont de gros bourrins bien consommateurs aussi! La note de conso est un global (CPU+RAM+chipset+GPU): si le x64 n'est pas le meilleur, il s'en tire pas trop mal surtout si les autres composants sont aussi optimisés que le CPU. Sans compter que les jeux PC sont développés pour impressionner d'abord, pas pour se limiter en conso (sauf quelques exceptions magiques, comme borderlands 2 à son époque, jouable sur iGPU intel)

Le 04/12/2023 à 13h 52

C'est sans compter les marques chinoises et les "précurseurs": Ayaneo, Anbernic ont des consoles en x64 (sous Windows) et la GPD Win est apparue pendant la vagues des Atom z3740 (des tablettes comme la Sus Transformer étaient très bonne pour jouer en rétro ou jeux peu gourmands)

Là on semble être au moment où un marché émerge: les successeurs de la Switch, qui a posé des bonnes bases de gaming portable. Mais pour avoir des jeux day-1, on part sur de la compatibilité Windows/Linux/steam/Epic - avec des grosses consoles bien lourdes.

Intéressant mouvement, j'attends de voir la suite mais reste peu convaincu: déjà avoir 300€ entre les doigts ça me stresse, 450-900 - et juste pour jouer - je ne peux psychologiquement pas franchir le pas.

Le 04/12/2023 à 20h 42

C'est clair, rien que le fait qu'ils traitent leurs bénéficiaires est dsicriminatoire

Le 24/11/2023 à 19h 04

La question: si on vole l'ordi de quelqu'un, qu'on démonte le capteur et qu'on lui met une prise USB... On va pouvoir se loguer sur son nouvel ordi en injectant notre empreinte?
Ou extraire le n° identifiant et le réutiliser dans un autre système de login?

Le 23/11/2023 à 18h 51

Ça dépend à quel pôle tu te situes pour produire H24 :)

Le 22/11/2023 à 22h 56

Je suis d'accord, bien que certain pense que l'environnement Windowsphone n'était pas bien, pour moi, à cet époque mes lumia étaient très bien.
Mais quand je parle du suivi, je parle de la 1ere douille avec les lumia 700 et 800 qui n'ont jamais pu passé en windowshone 8. (de ce que je me souviens ça date maintenant)

Ayant donné un lumia 735 passé en Windows 10 sans bidouille, je ne suis pas d'accord.
D'autant plus qu'une fois passé en Windows 10 et Windows Phone abandonné, le store a commencé à se remplir et le lumia a eu une seconde vie :)

Le 21/11/2023 à 18h 36

Les lumia étaient excellents - quoique les attribuer à Microsoft, je ne suis pas convaincu.

Le 22/11/2023 à 10h 11

Ces NPU m'inquiètent: je me demande ce qu'il y a derrière et si c'est réellement pérenne. J4ai du mal avec les acronymes des processeurs "accélérateurs d'IA" (KPU, NPU) et ayant joué avec un KPU, tout ce que j'ai pu admirer, c'est ses limites: ce KPU était très bien pour de la reconnaissance de forme/de mots et quelques tâches "basiques" pour laquelle effectivement la version IA étaient accélérée, mais une version algo fonctionnait très bien sur une CPU classique. Par contre, pour utiliser du modèle général Tensorflow, il lui manquait des instructions.
Conclusion: KPU puissant, mais adapté à certains environnement et algos (+types de nombres), pas un accélérateur d'IA généraliste comme un GPU peut l'être.

Ma pensée résumée: bel argument marketing, promesse pour l'avenir, mais dans les faits, ces unités ne vont-elles pas soudainement ne plus être exploitable simplement parce que les nouveaux modèles ont plus de couches, une architecture différente ou un type de données non géré?

Le 21/11/2023 à 18h 35

C'est effectivement essentiel de faire passer une certaine culture aux nouveaux développeurs.
La plupart des reconvertis ne comprennent pas la gestion de la mémoire par exemple. Ca peut sembler anodin, mais ça permet d'expliquer clairement les "petits écueils" lors de la concaténation de chaînes ou leur analyse (genre des goulets d'étranglement CPU sur de gros fichiers JSON ou XML).
De même, faire comprendre que l'ASCII, c'est du passé, mais encore bien présent et que la gestion des dates, c'est tout un domaine :)
Enfin, faire comprendre que grosso modo, il n'y a pas grand-chose d enouveau, juste des gens qui réinventent la roue tous les 4 ans parce que celle d'avant était trop compliquée - tout ça pour refaire les mêmes erreurs et arriver aux mêmes conclusion et 4 ans plus tard, devoir ressortir un nouvel outil car la courbe d'apprentissage du précédent semble être une falaise infranchissable et interminable.

Bref, dédramatiser, faire avec des technos pérennes, ne pas se jeter sur une nouveauté juste parce que c'est hype mais seulement si elle résout un problème actuel et qu'on arrive à se projeter dans sa maintenance à 10 ans.

Et leur rentrer dans le crâne que python, c'est nul ( :) )

Le 20/11/2023 à 07h 26


(quote:2166225:Fab’z)
Je sais pas ce qui est mieux entre edge et chrome sur un serveur rds…


Aucun. Déjà il faut désactiver plein de choses comme le rendu GPU. Mais au final, j’avais fini par faire un mini navigateur avec QtCreator (ça prend 2-3h) pour réduire l’empreinte mémoire des applis Saas.
Parce qu’en RDS, on se rend bien compte à quel point les applis Saas consomment plus de ressources côté client que des applis client lourd.
Je conseille fortement de mettre une règle sur le navigateur ou les utilisateurs pour ne pas dépasser un certain niveau de RAM (2Go par exemple sont normalement largement suffisants)

Le 16/11/2023 à 21h 05


Mihashi a dit:


Si tu consommes tout ce que tu produis…



Moi je ne suis pas chez moi la journée. Ma consommation est donc très faible à ce moment là, ça ne serait pas rentable du tout.


Je parlais de 400W justement pour être sûr de TOUT consommer. Une maison ça consomme facilement 200-400W sans personne.

Le 16/11/2023 à 10h 05

Il y a des offres sympa pour commencer en solaire - on trouve des kits plug and play 400W à 300€ (hors pause et transport). Si on compte 450€ tout compris, ça fait une rentabilité au bout de 2500kWh à 0.18c/kWh.



Pour du 400W, si il produit 1kWh/j, ça fait 7 ans pour atteindre la rentabilité - hors 1kWh/j c’est ce que j’ai produit en ce mois d’Octobre en moyenne par panneau dans les Vosges…



Donc c’est rentable en 7 ans d’un mois d’Octobre bien pourri… Et en 5 ans en considérant le mois d’Avril.



Bref, c’est pas un gros risque

Le 15/11/2023 à 15h 49


Seb65 a dit:


Je n’ai pas d’expérience sur les batteries, mais leur durée de vie est généralement exprimée en nombre de cycles.


Les miennes sont garanties 10ans en tout cas.

Le 14/11/2023 à 17h 31


sleid a dit:


. les panneaux et l’onduleur m’ont coutés moins de 1000€ et le traker moins de 500€.


Un tracker 4 panneaux à 500€ ???




Arcy a dit:


Ce sera peut-être expliqué dans un autre dossier mais pour les véhicules électriques, il est pas envisageable de placer des panneaux solaires sur le toit / le capot avant pour participer à la recharge de la voiture


La voiture consomme en gros 10kWh/100km. Avec 2 panneaux 400Wc tu serais à 0,8kWh, donc avec un rendement de 100% tu pourrait rouler 10km après avoir chargé 1h.



Mais:




  • Le panneau produit du 48V au mieux, la batterie se charge en 400V ou même 800V - et le rendement d’une élévation de tension continue dans de telle proportion est rarement de 90%

  • Il va falloir ajouter le poids des panneaux toute l’année

  • Les renforcer car les contraintes sur une voiture ça ne doit pas être très sympa pour un matériaux comme le verre

  • et se garer en plein soleil…



Ca a été tenté (en Australie) et c’est pas un rendement génial.



Par contre, la carport avec chargeur intégré et 48 panneaux ça peut être sympa.

Le 14/11/2023 à 15h 25


gg40 a dit:


J’ai déjà vu cette remarque sur les forum d’énergie solaire… Mais je reste tenté de prendre plus de puissance pour faire tourner des machines durant la journée.


Faites ce que je dis, pas ce que je fais - mon installation est une 3kWh avec batterie :) Mais elle ne sera jamais rentabilisée, sauf si l’état débloque le prix de l’électricité.

Le 14/11/2023 à 14h 42


CoreFloDev a dit:


Est que vous pourriez creuser sur le fait d’utiliser sa voiture électrique comme batterie?


La bonne question…



1-La voiture est-elle à la maison quand il y a du soleil?
2-Quel rendement de chargement est possible pour la voiture à faible puissance (parce que produire 7kWh instantané depuis le solaire, c’est pas facile)



La voiture comme batterie solaire, c’est pas évident pour toute une partie de la population (horaires) et du territoire (rendement).




sebtx a dit:


A l’heure actuelle il me parait rentable de couvrir la talon de consommation de son logement par un système simple et peu cher. L’avantage étant que ce système est évolutif dans le temps. Il faut aller au moins cher (quitte à prendre des panneaux d’occase) et ne pas vouloir une puissance démesurée.


:incline: C’est la première fois que je vois quelqu’un dire comme moi.



Si la maison consomme 400W “à vide”, une installation de 400 à 800W sera plus facile à rentabiliser. Mettre un peu plus de puissance crète permet de couvrir un plus long moment dans la journée.

Le 15/11/2023 à 15h 57

C’est pas clair: “sans contact” et “tape to pay”, c’est antinomique.

Le 13/11/2023 à 21h 29


(quote:2164918:consommateurnumérique)
. Il se trouve que j’ai “seulement” appris quelques commandes MS-DOS et à défragmenter et supprimer des fichiers temporaires sur Windows (ce qui est une spécificité, une feature, de Windows).


Non, c’est prévu dans à peu près tout fs (linux, bsd, openvms). Bon, sur le système fat c’était vite utile, sur le NTFS malheureusement le deragmznteur de windows faisait qu’on avait encore plus besoin du défragmenteur..



La spécificité de windows, c’est de l’avoir animé en couleurs 😁




fdorin a dit:


Nope. Comme je le disais dans un autre commentaire


Le roblème c’est que win32 n’isolait pas bien les processus dos et les laissait accéder directement ou presque au matériel.
Ça donnait l’impression que dos avait la main sur windows (il pouvait le planter)

Le 13/11/2023 à 21h 21


(quote:2164871:Jonathan Livingston)
Mais côté Amstrad, tu dois confondre avec le PCW (Z80, CP/M et disquettes 3”, comme les CPC effectivement) qui était bien à destination des pros mais quasiment limité au traitement de texte


Non, je confirme, le cpc a été utilisé en pro…. Ça fait bizarre! Il a même été vendu dans un système pour imprimerie.




(quote:2164888:127.0.0.1)
. Ca fait plus propre/sérieux pour un OS moderne, comparé à XP qui expose 10000 points d’entrée de DLL à n’importe quel process qui tourne.


Ça ne change rien pour les process dès qu’il sont un peu haut (services et users). Les bibliothèques windows ont une tendance à tout activer… Microsoft a un mal de chien à séparer les technos et les éteindre.



Après oui le kernel de Vista a pavé la voie (car les gros changements pour les process, la sécurité, le modèle de pilotes, le scheduler, la gestion des disques et de la ram, c’est vista !)



Ceci dit, Windows XP, maintenant il paraîtrait tout riquiqui et léger si ça se trouve😁

Le 13/11/2023 à 16h 22


(quote:2164827:consommateurnumérique)
Il faut bien dire que Windows est un vrai système d’exploitation seulement depuis Windows 7 en 2009 (ou Windows 2000 pour les pros en 2000)


Windows XP était sur le noyau de 2000 et était un donc “vrai” SE. LE DOS était totalement virtualisé.



Ceci dit, Windows 95 était aussi un SE, dans le sens ou si le DOS démarrait avant Windows 95, Windows 95 changeait de mode et passait en mode 38632 bits.
Windows 95 ne se basait pas sur le DOS ou sur le BIOS pour accéder aux disque si le pilote disait le contraire. Il n’était pas toujours basé sur MSCDEX pour les CDROM. Il activait l’USB (enfin, les révisions suivantes) -> c’est bien un SE.



Un autre SE méconnu: Quake 1 :).



Ceci dit, si on lançait EMM386 sous DOS pour simuler de l’EMS, le DOS était dans une espèce de VM pour détecter les accès à l’espace d’échange de l’EMS. Donc emm386 était un SE???