votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3768 commentaires

Le 08/04/2024 à 12h 09

On pourra jouer au CPC, la ROM a été officiellement donnée par Amstrad. Mais bon, CPC sur un iPhone/iPAD...

Le 08/04/2024 à 09h 12

Et pourtant c'est si vieux :)

Le 08/04/2024 à 09h 09

Pas d'accord. Si la note n'est pas super précise, avec un bon barême, elle permet tout à fait de noter chaque notion évoquée en cours.

Quand à l'oral, c'est ce qui se fait en étude supérieures avec les colles. Mais c'est une pression énorme pour les élèves, il y a une proportion non négligeable qui craque avant/pendant/après une colle. Alors que dans les fait, une colle c'est juste une interro orale, mais le côté "personnel"/"intime" est un énorme poids.

Je pense que l'IA peut être une bonne idée pour préparer une interro: une IA capable de soulever des points noirs dans les réponses, de faire réagir l'élève, peut être un énorme plus dans l'apprentissage.

Beaucoup d'élèves se noient dans le cours: n'y voient que du par coeur, n'y voient pas le cheminement. Il n'y a qu'en s'entraînant qu'on peut progresser. Or, les élèves ont beaucoup trop de sollicitations à côté, et comme ils ont des exigences d'animation énormes maintenant, le travail et la progression personnelle ne leur apporte pas assez de satisfaction/amusement. Donc un coach numérique IA, un truc qui pré note, je trouve cela très intéressant pour essayer de remédier au gap énorme entre les attentes/exigences des élèves et les possibilités de l'éducation nationale.

Le 08/04/2024 à 09h 02

De plus en plus de notes sont de simples Quizz (oui, quand j'étais jeune je trouvais totalement ridicule, stupide, inapproprié les QCM américains et je m'en moquait ouvertement, mais mes enfants sont évalués comme cela y compris en école d'ingé)

Certains profs ne font QUE des QCM (la techno, cette matière complètement vidée de toute substance au collège...)

Avant le boom des IA, j'étais tombé sur un article: pendant la covid, dans les pays nordiques, ils avaient développé une IA qui permettait de pré-évaluer une copie numérique: impossible de rendre une copie bâclé, bourrée de faute, non rédigée. J'avais bien aimé.

Je ne suis pas tout à fait d'accord avec la définition de noter. La note, c'est l'évaluation de l'élève à l'instant T, comment il se situe par rapport au cours. Mauvaise note -> remédiation - que le prof n'a pas le temps de faire en vrai pour chaque élève, donc l'élève doit soit bifurquer sur un accompagnement personnalisé soit se prendre en main.
Oui, le prof s'adaptera au rythme global de la classe.

Pour info, beaucoup de profs maintenant font l'interro ou une partie avant la vraie: parce qu'il est impossible de faire confiance aux élèves pour travailler chez eux, le seul moyen pour qu'ils soient "préparés" dans la majorité est de leur faire toute l'interro avant de leur dire ce qu'ils doivent approfondir. Cela permet aussi de gagner beaucoup de temps en désamorçant tout échange avec les parents râleurs.

Le 06/04/2024 à 17h 22

Le 26 GHz est une fréquence qui ne concerne pas forcément les mobiles. La 5g est censée être une techno de convergence.
Toutefois, il y a des endroits où le 26Ghz peut être déployé, des endroits de forte concentration: stade, hall de gare, hall d'aéroport.

Le 06/04/2024 à 17h 20

«… déjà qu’en ville le 3,5 a du mal à passer certains bâtiments bien isolés»
L'isolation n'a rien a voir, il suffit d'avoir des vrais murs !
Exemple (hors sujet): Avec le WiFi 5GHz ça passe très mal de l'intérieur vers le balcon ou quand il y a plus de 2 murs (pas ceux en papier mâché) entre plusieurs pièces, alors ON t'offre le WiFi-6e en 6GHz qui n'a d'utilité que si tu es en vue direct du routeur dans un «openspace» par exemple mais dans un appart normal ça bascule quasi systématiquement en 2.4GHz…
Alors le 26ghz en téléphonie oui peut-être uniquement dans l'utilisation dont l'article parle un stade, une plage, une place de marché…

L'isolation a son importance. Les bâtiments 'passifs' et HQI sont souvent impossibles à pénétrer -> installation de répéteurs 4g en intérieur.
Ceci dit, l'engagement de couverture concerne l'extérieur des bâtiments, pas l'intérieut.

Le 05/04/2024 à 16h 59

Oui, super tout ces rappels. Par contre, le beamforming, s'il est intéressant de le signaler, il y a peu de chance qu'il soit si "précis"

Le 04/04/2024 à 19h 00

Référence ? Une porte dérobée, c'est quand c'est mis volontairement et je ne me souviens pas d'un cas documenté pour sudo.

Effectivement, dans les cas de sudo et bsd, ce ne sont que des présomptions...
Mais des failles exploitables pendant plusieurs années en bidouillant un mail ou via la ligne de commande, c'est très louche.

Le 02/04/2024 à 18h 13

Trop tard, et depuis des années... BSD a eu sa backdoor via le serveur mail, Linux via sudo...

Plusieurs années pour les découvrir - donc pas vraiment mieux que sur du proprio.

Le 02/04/2024 à 12h 12

Sacré acquisition. Cette concentration dans les AAA me fait penser que le marché du JV ne va pas si bien et qu'une bonne consolidation + exploitation des licences + verrouillage de l'utilisateur semble s'imposer prochainement.

Le 31/03/2024 à 13h 55

Oui, c'est utile. Les technologies Web sont créées à "ressources infinies", mais en pro les ressources ne sont pas infinies.
La pression mémoire du navigateur (obligatoire pour les applications en SAAS) empêche d'autres applis de fonctionner normalement.
Ceci dit, c'est un problème autant du côté du navigateur, que du côté des sites internet développés dans 80% des cas sans aucune considération ou visiblement envie de limiter les ressources nécessaires.
Certaines applis/sites (y compris chez Ms, Google) sont truffés de fuites mémoires -> en gros, le site cessera de fonctionner une fois la mémoire consommée...
Cela mènera au 2ème problème avec le développement Web: dans 80% des cas, l'utilisateur ne sait pas que le site ne fonctionne pas bien. Les messages d'erreurs passent à la trappe, certaines partie fonctionnent et d'autres pas...

Pour les dev de "l'ancien temps", le web est bourré de site (et même des sites officiels) qui ne tiennent pas la route plus d'une heure sans avoir des petits bugs par-ci par-là...

Ceci dit, il existe un autre cas dans lequel limiter la RAM du navigateur est nécessaire: l'exécution d'une session à distance sur un serveur. Le web est déjà un gouffre de performances depuis le CSS3 qui fait un rendu nécessitant une CG (donc émulée sur le serveur...) mais en plus déjà il y a 8 ans, les applis en SAAS/intranet ont fait exploser la consommation de RAM de chaque utilisateur (en gros de 500Mo/1Go à 3Go), limitant de facto le nombre de sessions simultanées.

Pour ceux qui travaillent en "numérique responsable", le web, c'est le mal. On peut avoir un rapport de 1/100000 entre la mémoire utile pour afficher le message et la mémoire utilisée par le navigateur...

Le 29/03/2024 à 14h 40

Si ils pouvaient en profiter pour fermer complètement l'ENT du Grand-Est qui est une démonstration de ce qu'il ne faut pas faire quand on fait un produit informatique...
Pour les alertes via cet ENT, j'ai vu une capture d'écran: l'email n'avait pas d'expéditeur. Donc grosse faille, pas de compromission de compte j'imagine.

Le 29/03/2024 à 14h 38

Généralement quand on prépare un attentat, on ne prévient pas à l'avance sur l'ENT.

Ici il s'agit simplement de mettre le boxon à l'Education Nationale.

Sauf si on veut déclencher l'attentat à la sortie en masse de tout le monde.
Sinon, c'est vrai: on s'attribue l'attentat après, pas avant.

Le 29/03/2024 à 11h 01

Exemple: Domotique Bubbendorf. Le protocole n'st pas ouvert, la petite box qu'on met chez nous est un ridicule petit appareil qui n'est même pas capable de garder l'heure: il doit se synchroniser via le réseau...

Donc Wifi obligatoire pour cette petite box, elle ne peut pas s'en passer! Elle reçoit les ordres d'ouverture fermeture, y compris ceux programmés à heure fixe, depuis le serveur dans le cloud!

C'est juste totalement ridicule. N'importe quelle puce actuelle de microcontrolleur ou presque a une base d'horloge et pourrait s'occuper de déclencher les évènement à heure fixe (sans compter qu'on a largement le stockage actuellement pour programmer ou stocker les heures "d'aube" annuelles).

Mais non, si je veux utiliser cette centrale pour programmer l'ouverture/fermeture (ce qui économise beaucoup d'énergie de chauffage en hiver), il faut qu'il y ait un Wifi en permanence, un serveur dans le cloud, et que je la programme via une appli de tel...

Totalement overkill. Vous ouvrez une noix à la hache vous?

Le 29/03/2024 à 07h 28

Comme toi je suis surpris sur le premier point de la consommation fibre.
Par contre je m'inscris en faux sur la fin de ton commentaire : quand on est au pied du mur on doit agir sur tous les tableaux.
Et justement comme ce travail a été fait il est dommage (incompréhensible) que les modèles et opérateurs ne soient pas clairement désignés afin de permettre à chacun de faire son choix éclairé et ainsi que ce type de rapport ait une vraie utilité.

Disons que l'écart entre les modèles semble insignifiant. Même l'écart avec les anciens modèles: est-ce que produire un nouvel appareil est justifiable par l'économie de 2 à 5Wh par heure?

Perso j'ai toujours éteint la partie TV (pour être clair, elle est dans le carton :) ), et j'ai parfois choisi de payer un peu plus pour avoir un modèle économique en veille (TV Sony : mode veille = 0,17W)

5W, c'est ce que consomme mon four micro-onde pour afficher l'heure, comme mon four ou ma cafetière -> j'ai plus intérêt à débrancher ceux-ci (ce que je fais)
Ceci dit, j'ai une mini 4k et je doute qu'elle soit dans les 5w par défaut vu sa chauffe...

Le 28/03/2024 à 17h 29

On nous dit souvent qu'une box fibre consomme moins qu'une box ADSL. C'est donc faux. Et le boitier fibre externe fait consommer "beaucoup" plus.

Après, 10W, c'est pas grand chose. Bien sûr, c'est H24 soit 240Wh/j, soit 87kWh / an. C'est aussi 6 min de chauffe de trop par jour d'un chauffe-eau, d'une plaque de cuisson, 12 min d'un radiateur ou d'une cafetière... C'est 1/3 de la conso d'un aquarium chauffé à 20°, c'est même pas 2h de jeu sur console (TV) par jour pour le foyer...

Bref, si on doit économiser sur la box, c'est qu'on est PARFAIT ailleurs.

Le 29/03/2024 à 09h 06

Oui, il est peu utilisé, mais utilisé quand même...
On le trouve dans des produits pro, car c'est pratique, et c'était une norme publiée par Microsoft (bien avant qu'on leur torde le bras), donc dispo même sur Mac fin 90 il me semble.

Mais comme d'habitude avec Ms, ils ont fait des extensions non décrites dans leurs outils...

Le 28/03/2024 à 15h 29

pour certains l'automobile est un plaisir... après dans un marché compliqué et en pleine mutation c'est compliqué de trouver le bon compromis pour soit et ce marché en mutation crée des monstres comme l'explique l'article, c'est ca le sujet à la base.

pour ce qui est de ton jugement franchement je m'en fiche, tout comme je me fiche de la vision des 7 autres milliards d'humain comme toi et moi :) je ne prend même pas la peine de les/vous jugés <3

L'automobile plaisir, pour moi ce serait un tout petit coupé décapotable, ou être tranquille sur circuit.

Mais dans la vie de tous les jours, l'automobile c'est:
* Une contrainte
* Une charge
* De la culpabilité (polluant, pas fabriqué en France, dangereux...)

Le 28/03/2024 à 11h 42

quel est le rapport ? pourquoi ils font des ferrari et des porsches hybrides a ton avis?

Pardon, c'est totalement du jugement mais je ne suis pas du tout la même orientation dans la réflexion d'achat.

C'est le mix "voiture plan plan familiale" et "choix du modèle à 225cv", le tout se forçant à prendre une surcharge pour ne pas payer un peu de carte grise... je trouvais que ça n'allait pas ensemble. Du coup ma première réaction a vraiment été que c'était une blague...

D'un autre côté, je regarde vraiment le marché des voitures comme une caricature du pire de la société de consommation. Avec des pubs totalement surannées. Je crois que mon premier déclic ça a été les pubs avec le terme "suréquippé": si c'est suréquippé, c'est que c'est inutile, enlevez-moi le suréquippement et baissez le prix/la conso de matières premières, non?

Mais je suis de l'époque grandiose des pubs de la clio 1 et de la twingo: là on n'avait pas l'impression que la voiture était le reflet de soi-même.

Enfin bref, j'attends la 4L électrique quoi :) (mais avec une option sur piles au cas où)

Le 28/03/2024 à 08h 53

cest exactement ca... je viens de commander une 308 hybride 225.... pourquoi ? parceque c'est le seul moyen davoir 225cv sans payer la démesurée taxe sur la carte grise... mais comme dit dans larticle je risque de recharger rarement, au final cest debile. vendez moi la bagnole de 225cv avec 400kg de batteries en moins

C'est un gag?
Parce que sinon, pour éviter la carte grise, il suffit d'acheter un ranch de 225cv.

Le 28/03/2024 à 08h 37

Exactement.

Le cas qui peut parfois avoir du sens, c'est une base de véhicule entièrement électrique, avec en plus un petit générateur thermique optimisé pour recharger la batterie, qui tourne toujours au RPM optimal etc. contrairement à un moteur thermique dans une configuration classique.

Avec du coup une vraie batterie pour faire au moins 250km, et le générateur pour augmenter occasionnellement l’autonomie.

Ça existe (surtout en Amérique à ma connaissance) mais la manière dont les véhicules sont régulés en Europe n'encourage pas ça.

Il me semble que ça a été envisagé sur la loremo en 2000.

Le 28/03/2024 à 08h 37

Le résultat reste faussé car au final à cause d’une mauvaise utilisation des entreprises la conclusion est négative alors que cela aurait pu montrer que c’est plus « vertueux » qu’un thermique.

Non, le résultat est là. La cause n'est par contre visiblement pas le concept, mais sa mauvaise utilisation.
La conclusion en tirer n'est pas claire:
* Soit les interdire car trop compliqué pour les utilisateurs
* Soit conditionner leur achat/utilisation à un stage (dans les entreprise maintenant c'est le cas généralement)
* Soit rien du tout, le consommateur est idiot de ne pas profiter correctement de son véhicule

Le 27/03/2024 à 17h 59

Elles ne faussent pas les stats. Elles affichent la situation réelle. Par contre c'est la conclusion qu'on en fait qui est importante: on ne sait pas ce que ces voitures consommeraient si tous les utilisateurs les utilisaient au mieux.

Le 28/03/2024 à 15h 27

J'ai peut-être mal lu, mais je ne vois pas d'IA dans ce projet. C'est développé pour les besoins de l'IA, mais il n'y a pas d'IA dans le fonctionnement des protocoles et couches réseau annoncés.

Désolé, c'était pas clair, l'introduction était une (semi) blague sur l'IA générative, l'IA telle que dans le future XeSS de Intel (prédiction d'image), mélangé à l'exécution prédictive des CPU, le tout appliqué au réseau.

Juste parce que une news sur un protocole qui statistiquement baisse la latence et promet des débit fulgurants, ça fait un peu mou au 1er abord ...

... alors que c'est pour concrétiser skynet quand même!

Le 28/03/2024 à 10h 41

Je pensais qu'on aurait plus d'IA dans ce projet. On devrait simplement avoir une couche IA qui prédit les paquets qu'on reçoit, non? Et corriger si on s'est trompé, comme pour les pipelines des CPU...

Blague à part, je trouve dingue comme Ethernet est une techno qui a été adaptée à tout, même pour empaqueter des protocoles qu'on aurait pas cru compatibles...

Le 26/03/2024 à 15h 24

Les système "occidentaux" sont tellement inadaptés au monde oriental que la Chine a choisi de dégager Windows pour partir massivement sur du... Linux (dont le code source est en anglais).

C'est surtout le côté UI qui pose problème. Pour ce qui est du moteur, c'est moins le problème.

Le code source est en Anglais par limitation actuelle aussi: commenter en unicode et nommer les fonctions avec de l'unicode dans le noyau Linux, je ne sais pas si c'est possible (en fait, ce serait certainement retoqué à la relecture - il va falloir forker en douce)
D'autre part, ils ne peuvent pas tout réécrire de suite :) Notamment il faut commencer par réécrire le compilateur...

Le 26/03/2024 à 15h 19

Tu peux contribuer aux traductions de n'importe quel logiciel libre. C'est bien plus rapide que de devoir développer de nouvelles applications uniquement pour les avoir dans de nouvelles langues.

C'est cette vision réductrice qu'on a pas compris: la traduction ne suffit pas! La conception, l'affichage, la façon de réfléchir déjà donne une origine au soft!

(vieux souvenir de logiciels traduits en Japonais ou Chinois début 2000: un carnage ...)

(et souvenir récent des traductions ces 30 dernières années: File -> Fichier ou dossier, Directory-> Armoire, dossier ou répertoire, AI -> système expert, logique floue, et maintenant IA (la pire des traductions possibles), et les tops ces dernières années où ça dérape de partout: Free Space -> Espace gratuit (Ms), Camera -> Chambre (Gnome), End of support -> Fin de portage (lenovo ou HP, je en sais plus) )
+ tous les anglicismes, tournures, formats qui se sont imposés et froissent les gens (y compris dans les formules de politesse ...)

Etant entouré de personnes "bien élevées", et très imprégnées de "culture française", ça m'a ouvert grand les yeux sur le niveau de modification de notre language, de notre façon de pensée, et les désagréments qu'on subit tous les jours (la disparition de certains caractères comme le É, qui existe et est faisable), intrinsèquement, pas une certaine forme de conditionnement informatique...

Le 26/03/2024 à 13h 30

Je te trouve quand même assez dure sur ton constat. Linux est open source et chacun est libre de contribuer. Libre à chaque population de recoder un kernel en Kanji ou en Abjad si ça leur fait plaisir.

Peut être que si les OS sont si "occidentaux" c'est parce que l'alphabet "occidental" (je sais pas comment l'appeler) s'y prête mieux et qu'un moment donné, il faut se mettre d'accord sur un langage commun "worldwide". L'anglais étant quand même l'une des langues les plus simple à apprendre avec sa grammaire plutôt pauvre.

Quant au "x86 de l'ancien monde". Je pense que tu t'avances un peu vite. C'est certe assez massif, d'où la popularisation d'arm, mais d'un autre côté, chaque évolution a été poussée par un besoin réel. Je pense qu'il va se passer un bon moment avant que le x86 disparaisse, s'il disparaît un jour... (A l'échelle de notre vivant).

Je ne pense pas être dur, j'étais petit lors du passage du rouleau compresseur américain sur les marques européennes, mais ça s'est vu.

Même chez nous, on reste sur notre clavier tout pourri incompréhensible quand un clavier alphabétique aurait été meilleur pour l'adoption par la population. MAIS c'est compliqué car le fonctionnement des claviers reste lié à un passé qu'on ne se donne pas souvent le droit de contourner.

L'alphabet est une chose. Mais quand ta langue ne se lit pas de gauche à droite, même si l'OS est prévu pour, la plupart des logiciels ne sont jamais 100% adaptés à une lecture de droite à gauche ou de haut en bas. Ce qui rappelle constamment que le matériel est conçu en occident.
Sans parler de la gestion des dates... Déjà nous on a du mal avec les dates américaines, mais quand on joue sur plusieurs calendriers ça devient drôle. Même si c'est théoriquement pris en charge, il y a toujours une date qui "poppe" dans la culture occidentale.

Avec la résurgence actuelle des nationalisme et un "soupçon" de communication autour du colonialisme ... ces agacements quotidiens se perpétuent et s'amplifient.

Ensuite, il faut voir que les nouveaux marchés qui se développent ont moins le fil à la patte du logiciel du passé. Un ordi en ARM, sans port d'extension interne à gogo (apanage du PC, coûteux résidu de son origine industriel) peut être totalement adapté pour un prix inférieur.

Si on se base sur une utilisation cloud massive, il faut imaginer par exemple qu'en chine sur android on n'installe pas des tonnes d'applis, mais plutôt une méga appli qui fait tout - portable sur autre chose qu'android... Dans ce cas, de simple terminaux est totalement envisageable. Il faut bien se rendre compte que notre culture informatique, bien gavée de pub, c'est du "kikalaplugrosse". Mais ce n'est pas forcément le cas de pays émergents, qui sont sur du "comment je fais pour ne pas rater le train à pas cher". Limite une résurgence du début des années 80 lors du début de l'informatique personnelle.


Quand à ce qui motive les achats, les JV... Les AAA sont totalement empreints de culture occidental et de clichés occidentaux sur les autres cultures. Maintenant que les asiatiques et africains développent leurs propres médias, ils vont pouvoir en développer des bien plus proches de leurs attentes et de leur culture.

Qu'on soit clair: un pays qui fait une alliance avec la Chine aura intérêt à parler Chinois et Espagnol - mais alors pourquoi devoir apprendre l'anglais pour programmer? Non, les outils finiront par être dans une autre langue.

Désolé, mais je ne vois pas une harmonisation poindre dans tout cela, plutôt plusieurs pôles qui vont se développer côte à côte (et potentiellement s'affronter), chacun avec certaines spécificités "locales". Et les américains se croyaient incontournables - il se sont aperçu un peu tard que non seulement ils ne son pas incontournables, mais qu'en plus il ne sont pas forcément dans la bonne direction...

(dixit le gars qui craint depuis longtemps ce qui arrive maintenant: les datasheet en électroniques qui ne sont plus rédigés en anglais en premier...)

Le 26/03/2024 à 13h 15

L'Afrique n'utilise pas trop de PC, plutôt des portables. Et là, c'est l'influence de la Chine qui est prédominante.

Il n'empêche que quand tu parles avec le marché africain, ils n'ont pas la même conception de l'ordi. "Tropicalisé", "water cooling", et conception basse conso sont demandés.

Pas trop le 280W de TDP en pointe - c'est pas super tendance.

Le 25/03/2024 à 16h 44

C'est un phénomène en fond depuis plusieurs années. On parle de la chine, car elle est incontournable de notre point de vue, mais les pays musulman, les pays africains, asiatiques en général et même l'amérique du sud en a un peu marre de subir l'influence culturelle occidentale via les ordinateurs.
Nous n'avons pas la même conception, et malgré les efforts pour s'adapter aux cultures les logiciels et OS restent bien bancals s'ils ne sont pas en anglais, ou dans quelques langues européennes.

Là c'est clairement contre les US, mais en même temps c'est contre l'hégémonie occidentale. Les pays "émergents" ont maintenant des moyens, des gens formés, pour créer leurs propres logiciels et contenus sans subir le passé US de l'informatique.

A mon avis, on va vers une scission: ancien monde avec les PC x86/x64 et leur passé qu'ils traînent comme un boulet, et le nouveau monde avec ... autre chose...

Le 26/03/2024 à 13h 14

Oui, donc il y a des hugepages aussi sous Windows. Les pages à 4k sont un faux problème.

Mon propos étaient de récupérer de façon générale les gains liés aux pages plus grandes. Les bench que j'ai trouvé montrent qu'un gain de 10-15% existe sur ARM entre pages de 4k et 16k/64k.

OR x64 nous enferme dans des pages de 4k, il me semble que x64 n'est pas compatible pages de 16k et 64k.

De même, les tests existent et les implémentations sont prêtes ou presque (Android, Apple ont le support de page de plus de 4ko).

Ces pages de 4ko sont actuellement ennuyeuses car quasiment AUCUN fichier ne peut tenir dans une page -> tous les traitements multiplient des context switchs qui se sont très alourdis ces dernières années avec les différentes fuites et "améliorations" des CPU!

Le 25/03/2024 à 16h 49

Les hugepages sont quand même pas mal répandues. C'est dans quel contexte que tu es encore obligé de te coltiner des pages de 4k ?

Je parlais du grand public/grand amateur/petit pro.

Le "cas général", pour qui 4ko n'est plus représentatif d'un découpage à la taille des données manipulées. Le mac se prépare à des pages de 16k/64k (visiblement le M1 est compatible), Android est prêt (on peu le compiler avec ces autres tailles de page).

Le PC reste coincé avec ses pages de 4ko assez vite ridicules.

Bien sûr, ça pose des problèmes - surtout si on veut émuler un PC x64 puisque si on le fait sur des pages de 16ko, soit on fait tous les tests de dépassement en émulation, soit on s'assoit sur la protection mémoire et l'accès dynamique (on ne peut pas émuler efficacement des pages de 4k sur une archi en pages de plus de 4k - sauf à avoir des instructions spéciales)


Les hugepages, c'est bien quand on maîtrise le soft, c'est pas automatique non plus (sauf sous Linux - mais il faut manipuler de grandes plages de données pour que ça fonctionne).

Le 25/03/2024 à 10h 52

Il y a 2 émulateurs opensource "majeurs" à suivre avec ces évolutions: FEX et BOX. Les émulateurs avancent, mais peu d'infos sur les perfs (une vidéo avec GTA5 à 12 FPS, un benchmark qui a 2 ans).

Vieux lien: https://box86.org/2022/02/box86-box64-are-easy-to-use/

Il me semble que maintenant sous Linux, les 2 peuvent lancer Steam.

Entre Windows 11 qui n'est plus forcément la meilleure plateforme pour jouer avec Steam sous Linux qui fonctionne généralement bien et l'arrivée de processeurs ARM convenables pour les ordis, la plate-forme Wintel vacille...

Ceci dit, je remarque que pour concurrencer des CPU/GPU 35W de PC, un TDP de 25W est de mise. Ce qui n'est PAS révolutionnaire.

La plate-forme ARM permet de beaux tours de force, mais pour avoir de la perf, il faut consommer un minimum.

Ceci dit: actuellement les perfs des ordis sont bridés par l'organisation de la RAM. Tout est géré par blocs de 4ko: chaque fois qu'on accède à un nouveau bloc, il faut vérifier plein de choses: présence en RAM, droits notamment. Ce qui pourri tous les calculs matriciels et bride certains transferts.
Je ne sais pas si on va enfin se libérer de cette gestion 4k par 4k sur x86/x64, mais sous ARM64 on peut travailler avec de plus grandes pages, et en bench des pages de 64k permettent un gain de 15% en calcul (au détriment de la RAM consommée).

Je serai bien content si les plate-formes ARM permettent de se débrider un peu de ce point de vue là. 4k, actuellement, c'est vite limitant sur les traitements. Le x86/x64 stagne sur ce point et je pense que c'est une erreur.

Le 25/03/2024 à 10h 54

A l'inverse de la garde romaine, Windows defender se désactive mais ne meurt jamais.

Ceci dit, il est léger et désactivé ne coûte plus rien en ressources. Mais activé, sauf sur de très vieux coucous, il n'est pas très dérangeant.

Le 25/03/2024 à 08h 17

20 kernels ??? Sur un système en UEFI, la partition de boot doit pas comprendre ce qui lui arrive (sur mon Arch, je rentre difficilement plus de 2 kernels avec une partition EFI d'1Go).

Jamais eu de problèmes particuliers sur Android, en revanche, mon OP7 est dans sa cinquième année, je l'ai reset une fois et j'ai pas franchement senti de différences de performances (l'espace n'était de toute façon pas un problème). Les apps peuvent éventuellement écrire des données sur la mémoire utilisateur, que l'on peut donc facilement supprimer si besoin, sinon à la désinstallation d'un package, toutes ses données sont bien supprimées.

Comme sous Linux, on retrouve des répertoire .qqch, des répertoire 'cache' d'applis supprimées, ou des niveaux (exemple: inecraft qui laisse ses mondes dans un répertoire non visible ar défaut depuis l'appli ou la connexion USB)
Quelque soit l'OS, le problème est surtout la mauvaise pratique des dévelopeurs, et un manque: l'identification claire des espaces de stockage d'une appli.
Si les espaces de stockages 'semi privés' étaient marquables par l'appli, on saurait qu'un espace n'est plus utile.

Le 22/03/2024 à 14h 58

Au début, Windows était relativement sobre, mais devenait par mauvaise conception plus lent à l'usage. Ce phénomène de "winrot" est quasiment résolu (fini le formatage annuel obligatoire pour garder un système utilisable), dommage que Microsoft ait préféré encombrer les performances récupérées avec toutes les saloperies listées dans l'article :p

Les composants qui flanchent encore:
* Windows Update
* Le nettoyage (il ne supprime pas les pilotes obsolètes) (certains périphériques bas de gamme font installe rune copie du pilote à CHAQUE connexion, exemple: écran USB)
* Les captures mémoire en cas de plantage


Ceci dit, les autres systèmes sont aussi touchés:
* Android (résetter son tel quand on n'arrive plus à libérer de la place après avoir installé moult applis et versions permet de récupérer quelques Go) (sur un vieux tel, ça permet aussi de booster le démarrage qui passe de 10min avant d'être utilisable à 3min)
* Linux: selon la distro: liste de kernels (j'ai vu jusqu'à 20 anciennes version??? C'est énorme, ca fait 4Go au bas mot), répertoires cachés dans le répertoire utilisateur qui ne sont pas vidés quand on désintalle une appli (comme sous Windows avec le appdata ou le roaming), fichiers log sans rotation, captures de plantages... C'est les mêmes problèmes.

Le 22/03/2024 à 14h 42

Malheureusement, et historiquement, Windows est trop permissif et pas assez organisé.

Les développeurs ont pris leurs habitudes (sans lire la doc, pourtant claire et fournie) et ne suivent pas de guideline correcte.
Du coup des mesures de compensation (WinSXS par exemple) existent.
Saviez-vous que certaines applis qui essaient d'écrire dans C:\Windows\Temp sont convaincues d'y écrire mais que par la magie de la virtualisation du FS, en fait elles écrivent dans votre répertoire perso?

Ajoutons la nécessaire mise en sécurité du système, l'arrivée du store personnel parce que c'est la mode, des systèmes de compensation pour les mauvaises habitudes passées, l'inclusion de pilote signé mais pas très nets dans les mises à jour, un lien entre appli du store et pilote, des runtimes "stables" promis pour les applis...

Windows est un sacré foutoir...

Le 21/03/2024 à 09h 37

Je ne suis pas très à l'aise à conseiller CCleaner ou quoi que ce soit d'autre. Ces applis ont tendances à dire avoir fait économiser des Go, alors qu'elles effacent des fichiers temporaires qui sont systématiquement recréés (par l'OS, par les drivers, les applis), donc qui sont à compter dans l'occupation disque.

Sinon, j'ai un peu perdu le fil avec Windows 11 de ce qui est fait en automatique ou non. Le nettoyeur Windows en mode graphique est très utile, mais ne couvrait pas tout sous Vista et 7/10: le rebasage.

Windows fait un nettoyage régulier des composants normalement (tâche planifiée de nettoyage, lançable via schtasks.exe /Run /TN "\Microsoft\Windows\Servicing\StartComponentCleanup") mais qui garde 30j d'historique des composants.
On peut forcer le nettoyage total via Dism.exe /online /Cleanup-Image /StartComponentCleanup

On peut aussi oublier les versions précédentes via la commande Dism.exe /online /Cleanup-Image /StartComponentCleanup /ResetBase
--> Cela permet après une grosse mise à jour de récupérer vite la place des anciens composants obsolètes - sinon il faut attendre un mois - voire plus, parfois Windows garde des années les composants d'origine!

Si votre Windows a "de la bouteille", que vous avez connecté plein de composants (USB, cartes graphiques), cet outil permet de nettoyer les anciennes versions des pilotes ou de forcer la suppression de pilote que vous n'utiliserez plus: github.com GitHub

Il est important de nettoyer tout cela, notamment sur des machines limitées en disque ET en CPU. En effet, toutes ces traces d'exécutables et vieux fichiers sont vérifiés par l'analyse anti-virus, qui sur un ordi dual core ralenti fortement le travail.
Sans compter que lors de l'installation de pilotes ou les mises à jours, Windows revalide ces vieux fichiers!
Bref, ce sont des manips "simples" qui permettent de rompre un effet "boule de neige" sur de vieux ordis de 6-7 ans qui n'ont jamais vu de réinstallation.

(sur mon ordi principal, mon Windows est un 7 upgradé 8 upgradé 10, copié sur le nouvel ordi, upgradé 11...)

[Edit] Pour les radins/les disques de 128Go/les disques durs: la commande COMPACT /CompactOS:Always permet de compresser les EXE et DLL et gagner 1/2Go

Sinon, au-delà du WinSXS (qu'on ne touche pas directement, non non non), le répertoire C:\ProgramData peut contenir quelques surprises pou ceux qui ne le connaissent pas.

Le 25/03/2024 à 08h 20

Zéro trust. Ne jamais rien lancer en admin. Un soft ça se dézippe si possible, sinon je passe...

Le 22/03/2024 à 15h 38

Ce n'est pas pareil. Microsoft ne met pas (pas souvent) des bâtons dans les roues pour intégrer une autre techno.

Il l'a fait, en sabotant le HTML, Javascript, Java, mais maintenant ce n'est plus le cas.

Et Microsoft garde assez peu de secrets: la doc est énorme, quasi complète, plutôt à jour même sur des fonctionnements internes de Windows, SQL Server (moins Office et surtout Office 365)

Le 21/03/2024 à 20h 48

Le fait que les développeurs soient intéressés vient du fait qu'à prix quasi identique, il feront plus de marge.
Pas sûr que ça fera baisser les prix à terme (j'imagine qu'au lancement , ce sera agressif)

Le 21/03/2024 à 17h 17

Question philosophique: pourquoi dire que ce sont des vCPU?

En effet, si on ne peut pas lancer plus de VM que de CPU dispos, et que le CPU est 4 coeurs, que la box en réserve 2 et en laisse 2 pour les "VM", de même pour la RAM qui semble partagée en 2 ...

C'est pas vraiment de la virtu, c'est de l'allocation des ressources en dur, non? Quand je parle virtu, je parle surallocation des ressources, utilisation du vide et optimisation de la capacité...

C'est intéressant de pouvoir lancer des machines sur la box, mais être limité à 2, c'est dommage. Ou alors on peut lancer des conteneurs dans la "VM"? (LXC, Docker?)

Le 21/03/2024 à 17h 14

Le 20/03/2024 à 22h 59

C'était pour montrer la vacuité et l'inutilité que peut avoir un réseau social comme Facebook, ainsi que ses travers, illustré par un exemple vécu. La seule vraie utilité à mes yeux, étant d'avoir la possibilité de retrouver des gens perdus de vue, un peu comme (feu) Copains d'Avant.

2 réponses sèches pour critiquer crûment sur mes 2 posts sur Facebook... t'as des actions chez eux ?

Facebook a une utilité. Facebook a démocratisé le réseau social à un moment où l'on avait que des forums plutôt austères. Il a apporté un annuaire là où les blogs étaient dispersés.
Il a apporté une facilité d'utilisation et une unification des outils quand tous étaient dispersés.

Maintenant on peut facilement critiquer facebook car il n'est plus seul, et reste assez attaché à son ancienne image sans rien révolutionner pour ne pas brusquer ses utilisateurs ... comme Windows

Le 20/03/2024 à 08h 39

??

Le rapport avec la news.
La news est sur le fait qu'un GAFAM veuille faire payer pour ne plus avoir de pubs, que ce GAFAM soit prêt à baisser le prix de l'abonnement, mais aussi que le fait de payer pour ne plus avoir de pub semble tendre vers un dark pattern, le consentement implicite à la pub par le fait de ne pas payer octroyant au GAFAM le droit d'exploiter des données personnelles...

Bref, rien à voir avec des retrouvailles avec une copine.

Le 20/03/2024 à 08h 34

Je n'ai rien compris à ce post...

Le 19/03/2024 à 16h 48

C'est le cas de tous les fondeurs. Plein de références sont créées pour écouler des lots "moins fonctionnels".

Par contre, je ne comprends pas pourquoi dans l'article "24 Go maximum (c’est plus que suffisant)" mais que les autres restrictions ne laissent pas une situation plus que suffisante (420MHz dans un smartphone, téléchargement à 5Gb/s, 4K ... ). Tout me semble largement suffisant pour 90% de la population pour un smartphone, les gens se contentent de bien moins, et le CPU ne semble pas avoir de limitation majeure (genre techno obsolète) comme on a pu le voir parfois.

Le 18/03/2024 à 17h 03

J'ai lu cet article, très intéressant.
Il montre comme une IA générative est suffisamment complexe pour comprendre des opérations de décodage.
Il montre aussi comme les sécurités ne sont pas intégrées dans l'IA mais sont des couches en amont.

Enfin, la réflexion va plus loin: le ASCII art est là pour le POC. Mais ça marche avec n'importe quel codage inventé ou à inventer. Ce n'est pas juste l'ASCII art qu'il faut bloquer, ça ne suffirait pas.

A noter tous les travaux en cours sur l'analyse du comportement d'une IA aux input, les outils pour faire un "IRM", la disséquer qui émergent, et ceux à venir pour "patcher" une IA en intégrant des couches supplémentaires à l'intérieur ou en sortie (avec un feedback négatif), qui coûteront aux perfs générales du modèle.

Le 18/03/2024 à 11h 38

Le web et l'informatique sont morts, non?
Je me demande souvent quelle est la quantité de données utiles face à la quantité de données transférées.
C'est quoi l'image par rapport à la vie quotidienne: des agents en permanence autour de nous pour faire passer un interrogatoire à la boulangère avant qu'on entre, goûter notre sandwich avant qu'on ne puisse l'attraper, vérifier que la salle est sécure avant de s'asseoir, et qui nettoient derrière nous quand on part?

Le 16/03/2024 à 22h 02

Je pense de plus en plus à stocker des données systématiquement pseudonymisées (avec un ou plusieurs guid) et la table des guid + données personnelles à part. Systématiser la requête de récupération des données personnelles à part, avec un débit maxi et une finalité obligatoire.