votre avatar

fry

est avec nous depuis le 11 avril 2017 ❤️

1298 commentaires

Le 15/11/2024 à 16h 54

bof, d'un coté y'a ceux qui pouvaient payer une campagne avec 3 pub par page en 300px200px pour tous les visiteurs pendant 3 mois avant le scrutin, de l'autre ceux qui pouvaient à peine payer 1 pub tout les 500 visiteurs dans un encart de 100px50px pendant 1 semaine
c'était pas vraiment équitable niveau "force de frappe" ou "matraquage publicitaire"
cela dit, "s'acheter des interviews" et autre joyeusetés, c'est tout aussi biaisé en effet

Le 14/11/2024 à 13h 13

négligence de la part de l'entreprise elle-même, dans ce cas j'en doute, à la rigueur du prestataire qui a installé le système, ou du fournisseur des étiquettes pour le mauvais paramétrage (je doute que l'entreprise ait elle-même choisi et collé les étiquettes fautives)
cependant remonter la source de la responsabilité peut être compliqué et long j'imagine
sauf si le prestataire a été choisi sciemment en ignorant les risques de brouillages
je doute qu'il puisse y avoir une réponse simple, c'est forcément au cas par cas pour le jugement à mon avis

Le 13/11/2024 à 14h 56

Je n'ai pas le même lecture que toi concernant l'animosité.
Mais sinon :
- Non Google ne se débrouille pas si bien, il a souvent du mal à faire le tri dans une page entre ce qui est à indexer ou pas.
- Google ne peut pas indexer ce qu'il ne peut pas lire. Par exemple, pour un éditeur de site entièrement payant, Google ne peut pas indexer les pages et donc les proposer dans un résultat de recherche ce qui lui fait perdre des clients potentiels. Idem avec le contenu d'une application mobile.
- Les éditeurs payent des spécialistes en SEO, là ce n'est peut être plus nécessaire. Argent pouvant servir à d'autres choses du coup.
- Pour les vieux sites qui ne bougent plus, il est toujours possible d'aller les crawler un coup sur demande de l'éditeur. Si pas de demande, alors probablement que c'est un site sans intérêt et qui n'a plus sa place dans les résultats d'un moteur de recherche.
- Il n'y a pas à forcer les éditeurs, il faut amener le service en parallèle d'un index obtenu par crawl (location à Bing par exemple), le faire monter en puissance et quand il y a assez de données, alors adieu Bing.
- Pouvoir caractériser les données via l'API permet d'obtenir des résultats de recherche plus pertinents et mis à jour immédiatement. Je pense que c''est là que les éditeurs peuvent voir l'intérêt et éventuellement adhérer.

les spécialiste en SEO, c'est pas du tout pour la pertinence du résultat qu'ils sont payés, c'est pour être mieux mis en valeur que les concurrents, c'est là tout le jeu de google, faire miroiter aux sites qu'ils peuvent améliorer le nombre de visiteurs/clients, et ça amène a fausser les résultats pour tenter de "vendre" des choses annexes à ta recherche, le but n'est pas du tout de fournir une réponse la plus fiable possible à la personne qui fait la recherche
aucun site qui vend quelque chose ne viendra s'inscrire volontairement dans un index honnête à part probablement les "grandes marques" qui profiteront de l'aura de leur nom
pour l'exemple de google ne pouvant pas indexer le contenu des sites payants, on a eu l'inverse, des journaux qui demandaient des droits d'auteurs (ou similaire), c'est pas eux qui vont venir contribuer à travers une API
de plus, si les pages sont inaccessibles, comment juger de la véracité de ce qui a été fourni par l'api ?

au risque de me répéter, l'idée est louable dans la théorie, mais n'a aucune chance de marcher dans le monde réel, elle dépend trop de la bonne volonté et de l'honnêteté de tout le monde, soit il n'y aura pas assez d'inscriptions car les sites n'y trouveront pas leur intérêt, soit certains "experts SEO" trouveront un moyen d'exploiter quelque chose pour mettre en avant des sites de manière indue, ce qui ne sera pas au bénéfice des internautes

j'aimerai bien avoir tort, mais je suis plutôt pessimiste

Le 12/11/2024 à 18h 04

C'est marrant cette animosité, ridicule mais marrant !

Google c'est super, c'est les plus forts, il ne faut rien changer et ne rien faire contre eux. Pas de disruption, courbons l'échine devant le maître !

je n'ai pas lu d'animosité, seulement un constat :
- google se débrouille "très bien" sans rien demander aux hébergeurs/admins/[insérer le poste le plus adapté] des sites existants
- comment "forcer" les sites existants à faire quelque chose pour venir s'inscrire dans ce nouvel index, quelle que soit la méthode (par exemple si ce nouveau moteur fourni un module pour un cms, ou une bibliothèque supplémentaire pour le serveur) ça va demander du travail à un admin (ou autre) du site pour que ce soit fonctionnel, or personne va vouloir le faire (ni payer qqn pour le faire), et c'est encore plus compliqué sur les sites qui n'ont pas bougé depuis 10 ans ...

le principe est plutôt louable et serait probablement plus efficace que parcourir toutes les pages comme le fait google, mais aucun site commercial n'acceptera d'avoir des frais supplémentaires pour aider à la construction d'un index qui sera largement minoritaire et rapportera vraisemblablement peu de visiteurs face à un google ultra dominant (et je doute que quiconque fasse de paris sur 10 ans en ce qui concerne le web)

lire ici que la domination de google n'est qu'un constat, et ce qui sera probablement le point de vue du responsable d'un site quelconque, il ne s'agit pas d'un souhait ou de quelque chose que j'approuve (et ce n'est pas non plus ce que j'en conclus des messages de @tazvld )

Le 05/11/2024 à 16h 33

Non. Microsoft n'a jamais dit ça

à dit quoi ? c'est bien à moi que tu répondais ?

Le 05/11/2024 à 16h 33

@fry Tu veux dire que Win11 refuse de s'installer si on n'a pas de TPM et autres conneries du genre ?

Effectivement, on devrait pouvoir avoir le choix, même chose pour le NPU ("Co-poisson-pilote-en-peluche" n'est pas utile à tout le monde)...

En théorie, ce n'est pas à l'OS (à moëlle) d'imposer des choses qui ne sont pas absolument essentielles.

L'idée d'un Windows en rolling est excellente en soi... à condition que Ms tourne cinquante-huit fois (environ) sa langue dans sa bouche avant de "pusher" des updates, je veux dire que certaines Maj peuvent avoir des conséquences absolument désastreuses, et donc il est important de bien beta-tester tout ça... ou, comme c'est déjà le cas, de pouvoir retarder, voire d'arrêter temporairement "Wau" le temps de terminer un travail délicat.

yep pour le tpm (et autres listes arbitraires de CPU compatibles, en laissant plein de puissance équivalente ou supérieur tout a fait fonctionnels sur le bord de la route)

Le 04/11/2024 à 18h 17

le "rolling release" ne change en rien le fait qu'une version spécifique refuse de fonctionner sur du matériel fonctionnel mais "déclaré arbitrairement obsolète"

Le 31/10/2024 à 10h 11

tout dépend du point de vue
Pas vraiment.
Mais une pseudo-situation de compromis peut toujours être faite apparaître lorsqu'on le souhaite.
celui qui vend des services et fait bosser les serveurs d'une autre boite
Cette personne fait juste un travail de commercialisation par-dessus un produit aux sources ouvertes, en vendant des services périphériques : un modèle somme toute très classique.
Les ressources utilisées sont celles de wordpress.org, site du projet aux sources ouvertes, codé en dur dans le code. Par concept, ce n'est pas censé appartenir à une entreprise. Pis : encore moins à un concurrent.
celui qui coupe l'accès direct à ses serveurs aux ip du vendeur de services qui ne le paie pas pour utiliser ses serveurs
L'entité tierce exploitant les ressources en dur dans le code du projet aux sources ouvertes n'est en rien responsable du problème de conflit d'intérêt quand à la gestion des ressources communautaires.
Si le concurrent ne voulait pas financer exclusivement ces ressources, un modèle de fondation aurait pu exister depuis fort longtemps.
Mais déléguer ces ressources à une entité tierce en fait perdre le contrôle, et mon petit doigt me fait dire que c'est difficile comme idée, pour certains.

Mullenwerg via Automattic savait très bien ce qu'il faisait.
Le fait qu'il tourne le problème de conflit d'intérêt, qu'il a lui-même créé & maintenu, rappelons-le, en un narratif consistant à inventer une volonté de nuire, c'est mensonger & cynique.

Par ailleurs, amusante cette posture consistant à "être ouvert" à d'autres modèles quand la seule "solution" qu'il a trouvée à son problème est une coupure violente de ressources qui ne lui appartiennent pas à une entité concurrente.
Il aurait pu transférer les ressources à une autre entité et demander un financement via pot commun. Quitte à utiliser la place publique pour exposer son projet. L'a-t-il essayé ? Pas vu.
Il aurait pu modifier le code source (que ce soit celui ouvert via contribution ou son clone) ou la licence afin de s'assurer que les ressources distantes dont le code a besoin soient implémentées par chaque fournisseur, et ainsi garantir que les ressources qu'il héberge lui-même ne soit utilisées que par des entités dûment autorisées. L'a-t-il essayé ? Pas vu.

merci @Berbe et @fdorin pour les compléments, ça a donc évolué depuis le départ (ou plus probablement ça a commencé "avant", mais c'était moins visible, et ça a explosé lors de la coupure des accès pour les clients de WP ENgine)

de base la "prise d'otage" semblait une action très maladroite (pour rester poli) suite à des pratiques pas sympa (tout pointer vers les serveurs automatic sans faire son propre cache quand on héberge massivement du wordpress, surtout si on contribue pas) et l'action de Matt semblait être une explosion de "raz-le-bol"

mais visiblement c'était pas forcément aussi "simple"

Le 31/10/2024 à 09h 28

tout dépend du point de vue
celui qui vend des services et fait bosser les serveurs d'une autre boite
celui qui coupe l'accès direct à ses serveurs aux ip du vendeur de services qui ne le paie pas pour utiliser ses serveurs

du moins ça c'était le point de départ, y'a peut-être eu des évolutions sur le conflit depuis

Le 30/10/2024 à 09h 15

J'imagine déjà le Flock vu par Flock :francais:

ne pas oublier le verre de floc

Le 29/10/2024 à 10h 22

@oliv5 pour info
si vous êtes pas allergiques au bricolage, y'a https://hallard.me/wifinfo/ un petit esp8266 et quelques composants simples et hop, tout est accessible via une page web
j'ai un script sur un pi qui va interroger le json toutes les 6 minutes (10 par heure) pour me faire mes propres stats

Le 22/10/2024 à 09h 48

Enfin bon,
tout ça c'est de la comptabilité, pas des kwh en entrepôt, les kwh aussitôt produits, ils sont consommés, sinon, ils n'existent pas, l'électricité est un flux, sauf cas particulier de stockage chimique sur des batteries ou pompage de l'eau en réservoirs, mais c'est une transformation à chaque fois dans une autre énergie.

absolument, mais je vois pas trop s'il y a une réponse ou une question :D

Le 21/10/2024 à 15h 52

Du même niveau, je me demande ce qu'il en est de la TVA:
Si on considère que c'est ma production, je n'ai pas à en payer sur ce que je prends sur ma e-batterie, mais pourtant elle vient du réseau donc, c'est un manque à gagner pour Bercy, mais d'un autre côté, ce que j'ai surproduit a été consommé par quelqu'un, donc il l'a déjà payée, donc si je la paie, c'est en double.

ce que j'avais regardé il y a quelques mois, et ce que j'en avais compris, c'est qu'il y a forcément des frais de "transport", y'a des kWh qui se baladent sur le réseau, ça c'est facturé, et donc très probablement il y a une TVA sur ce transport
par contre ce qui a été crédité sur la e-batterie (donc produit pas toi) n'est pas facturé si tu le consomme (selon les services, il peut y avoir une "capacité" max, donc ce qui n'est pas re-consommé est "cédé" au prestataire (qui lui le vend de son coté), d'autres peuvent t'acheter ta production "stockée" dans ta e-batterie pour ensuite le revendre (ce qui est vendu est bien entendu débité de la e-batterie))

Le 21/10/2024 à 11h 38

Ah oui, donner, ils veulent bien, d'ailleurs au démarrage, ils m'ont carotté 2 mois de sur production (avril et mai), dans les 500 Kwh, bien comptés par le Linky, mais pas validés car avant autorisation du consuel, rien à faire, il parait qu'il font le coup à tout le monde.
JPME, je ne connaissais pas, le système ebatterie est sans doute plus intéressant car la sur production est déduite de la consommation, donc au même tarif, si c'est déduit à 100% (à voir).

méfiance avec les "e-batterie", même si c'est décompté du crédit cumulé de surproduction solaire non consommé, il y a toujours les frais de transport de l'énergie, donc même si tu re-consommes moins que le surplus que tu as envoyé dans le réseau, tu sera facturé de ces frais et pas de "zéro" ...

Le 18/10/2024 à 14h 45

N'importe qui peut acheter une "clé facteur". Par contre, interdit de l'utiliser ailleurs que sur ta propre boite à lettres si tu es un simple particulier.
Donc, une boite à lettres n'est pas sécurisée.
@fry pour info.

merci pour les précisions

Le 18/10/2024 à 14h 45

En même temps, quand je vois le nombre de livreurs (et pas que La Poste !) qui déposent directement des colis dans la boite aux lettres, cette gestion doit bien pouvoir se répliquer dans un autre domaine (même si cette solution ne serait pas parfaite, je le concède volontiers, ce serait toujours mieux que de l'open-bar)

tout à fait, la multiplication des services de livraison met en évidence ce souci (que les boites aux lettre ne sont plus confidentielles, si elles l'ont jamais été)
je n'ai pas de solution, c'était juste pour rappeler un défaut qui, à mon sens, ne peut pas être corrigé grâce à un simple "patch", mais qu'il faudrait revoir une très grosse partie du système pour avoir quelque chose de fiable

Le 18/10/2024 à 11h 52

Par contre, on pourrait imaginer un système comme pour les boites et aux lettres et la "clé facteur".

Ca évite que le quidam moyen puisse ouvrir, tout en permettant le personnel habilité de l'ouvrir.

C'est un peu mieux que de l'open bar proposé par Orange, et pas trop contraignant non plus pour les opérateurs et intervenants.

je suppose que le souci (sur le principe de la "clef facteur") c'est qu'il y a tellement d'indépendants ou micro-structures en fin de chaîne que le nombre de clef nécessaire rendrait le fait d'avoir besoin d'une clef inutile (dans le sens où ça deviendrait une galère que récupérer les clef des structures qui ferment/coulent, autant que pour fournir la clef à un structure qui se crée, et également car sur le volume de clef nécessaire de manière légitime, si qqn veut truander, c'est simple d'en piquer une, ou d'en trouver une perdue, et la sécurisation de base ne résistant pas au pied de biche ...)

Le 17/10/2024 à 18h 20

Et pourtant, sur les laptops, il y a bien 3 tailles différentes en hauteur, et les contraintes dimensionnelles dans un laptop sont sûrement un peu plus "serrées" ou "tendues" que dans un NAS ou rack serveur.

Dans ce cas, il n'y a qu'à faire une segmentation produit NAS/ rack serveur qui pourraient accepter plusieurs hauteurs de HDD 3"5... Qui peut le plus peut le moins, et dans les baies, il doit quand même y avoir quelques mm de rab entre les composants, du mal à croire que les HDD sont écrasés en sandwich entre la plaque du bas et la plaque du haut du rack.

Alors que grapiller de qq microns dans un boîtier super hermétique où tout est compté au poil de :bocul: près...

Bref, je sais pas trop pourquoi ça ne pourrait pas exister pas sur le 3,5" quand ça existe pour les laptops avec du 2"5...

J'avais bien un Quantum BigFoot 5"1/4 fin des années 90... (oui le 5"1/4 était dans la largeur, d'ailleurs le HDD était super mince).
:roll:

les 2.5 "épais" sont des restes des premiers modèles "pour portable", les versions plus fines ont été créées pour correspondre aux besoin des constructeurs d’affiner les portables
et sans parler des m.2 et des portables qui n'ont plus d'emplacement 2.5, il y a beaucoup d'ordi et depuis un moment qui n'acceptent que les versions "fines", les plus épais ne sont utilisables que dans des boîtiers usb externes (ou très rares nas)

il n'y a pas eu ce genre d'évolution sur les 3.5 (encore que, j'ai encore des maxtor "demi-hauteur" qui sont plus fins que les 3.5 "standards"

je doute très fortement de la pertinence de faire évoluer le format 3.5 vers l'augmentation de la hauteur, où situer la limite dans ce cas ? pourquoi se limiter à une taille permettant 11 plateaux ? vison 12, ou 15, 20 ? 30 ? ...

Le 15/10/2024 à 14h 41

Bon, le roman je ne l'ai pas lu depuis 30 ans (entre 2 Gunnm?) - donc il m'a éclairé des trucs par rapport au film mais cette partie ne m'a pas marqué :)

idem, la lecture date, un micro-poil moins peut-être :)
par contre je suis pas certain si j'ai vu le film ou lu le bouquin d'abord, probablement le bouquin mais sans certitude.
(bon choix pour gunnm, que j'ai découvert bien 5 ans plus tard mais que j'ai dévoré, par contre zéro IA là-dedans, que des humains "augmentés" tous plus cinglés les uns que les autres, pas besoin d'IA qui pète les plombs pour détruire l'humanité, elle se débrouille très bien toute seule, mais je m'écarte du sujet :D)

Le 15/10/2024 à 14h 34

Le roman de 2001 donne la réponse directement (là où le film 2010 l'a donnée après coup). Il a été écrit en même temps que le film même s'ils ont divergé ensuite en raison des contraintes de tournage ou de choix de Kubrick.

HAL-9000 a sombré dans la névrose à causes d'ordres contradictoire. Il devait garantir le succès de la mission, il devait conserver le secret de celle-ci, et il n'a pas la droit de mentir aux humains.

En gros, le problème n'est pas HAL mais ses concepteurs.

merci pour le rappel, j'avais totalement oublié les ordres contradictoires et les soucis qui en découlent, donc il s'est pas vraiment "rebellé" contre les humains, mais il a quand même des soucis par rapport à ses ordres et sa mission

Le 15/10/2024 à 12h 07

De mémoire, HAL9000 se protège et protège la mission scientifique, le menant au meurtre.
C'est dans 2010 qu'on révèle le dilemme, mais c'est une entourloupette scénaristique.

possible (me souviens plus)
mais là où les T(800/1000/X ...) sont des évolutions d'armes humaines (la première version "à chenilles" présente dans le 3 est construite par des humains mais est contrôlée par skynet) construites par une IA (skynet), dans matrix je ne sais plus trop comment / à quel moment l'IA s'émancipe de l'humain (puis utilise les humains comme des "piles")
dans ces 2 cas "l'IA" / les robots n'ont plus aucun lien avec les humains, ni d'obéissance, ni de mission "pour le bien de l'humanité"

pour HAL9000, même si c'est une entourloupette, il a été construit par des humains, pour une mission "pour l'espèce humaine", et s'y tient, tant pis si des individus doivent y passer, et étant lui-même nécessaire à la mission, un humain tentant de le débrancher est une menace pour la mission

pour moi HAL9000 ne fait clairement pas partie des IA/robots dont on a perdu le contrôle

Le 15/10/2024 à 10h 56

hum, pour HAL9000, il ne se rebelle pas (de même que dans alien), il suit des ordres, le problème c'est qu'ils viennent d'humains plus haut dans la hiérarchie que les protagonistes.

je connais pas Robby, donc je ne sais pas pour lui

Le 11/10/2024 à 17h 32

est-ce que cette fois les coeurs E et P ont bien le même jeu d'instructions ?

il me semble qu'a un moment intel avait eu cette idée de génie de ne pas avoir certaines instructions sur les coeurs E et du coup soit ça plantait, soit ça réveillait un coeur P ce qui pouvait créer de la latence et augmenter la conso (sur un fixe ce dernier point est moins problématique que sur un portable)
c'est toujours d'actualité ou c'est de l'histoire ancienne ?

Le 26/09/2024 à 09h 49

Comme l'explique @ragoutoutou, c'est le Royaume Uni qui a foutu le bordel dans la région en donnant cette terre à des européens qui n'avait aucun droit dessus (
Ce n'est pas vraiment comme ça que ça s'est passé. Bien que l'idée de taper sur le Royaume Uni soit toujours séduisante pour le Français que je suis, la situation ne fut pas exactement celle-là. La réalité est que des juifs (principalement, mais pas seulement européens, il y a aussi eu des juifs du Maghreb, d'Iran ou encore du Yémen) sont allés s'installer en Palestine ottomane, puis mandataire, sans franchement demander l'autorisation au Royaume Uni (d'autant que les premières vagues ont eu lieu avant que le Royaume Uni ne contrôle la zone). Le mouvement sioniste est à la base principalement un mouvement "grassroot".

Des juifs sont donc partis pour la Palestine, ils ont rejoint la minorité juive qui habitait l'endroit de longue date (certains n'étaient jamais parti depuis l'Antiquité, d'autres étaient progressivement revenus depuis le Moyen Âge), ils ont acheté des terres - souvent à des propriétaires arabes ravis de vendre prix d'or des terrains réputés pourris, ils ont fondé des villes (parmi lesquelles Tel Aviv en 1909), souvent au corps défendant des Britanniques qui ont plutôt essayé de freiner ça, allant jusqu'à quasi-interdire l'immigration juive et l'achat de terres par des juifs à partir de 1939, au moment même où les juifs d'Europe commencent pourtant à se faire passablement dérouiller pendant la seconde guerre mondiale : c'est le "3e livre blanc". Ce 3e livre blanc prévoit la création d'un État de Palestine unitaire, indépendant, avec une minorité juive dotée d'une autonomie limitée (un "foyer national", mais au sein d'un État unitaire à majorité arabe).

Le problème c'est que les arabes, qui ne sont pas plus tolérants que n'importe quel autre peuple (et la première moitié du XXe siècle est pas connue pour être une période où les peuples ont été hyper tolérants de manière générale), et qui sont comme tout le monde plein de préjugés envers les gens différents, multiplient les attaques contre une minorité juive vis-à-vis de laquelle ils ont des sentiments ambivalents. Chaque fois qu'un juif commet un crime, c'est l'occasion d'une petite punition collective avec un petit massacre dans le village du coin. Chaque fois que les arabes s'en prennent aux autorités britannique pour X raisons, aussi, les juifs du coin s'en prennent une par ricochet. Chaque fois qu'un conflit sur une question religieuse a lieu dans la vieille ville de Jérusalem, n'importe quelle bisbille à la con du type "non mais ils ont prié de notre côté de la ligne", "oui mais vous vous avez amené un cadre en bois alors que c'est interdit", c'est l'occasion pour la majorité d'aller montrer à la minorité qui c'est le patron.

Faut pas être naïfs : si vous trouvez que la France de 2024 est pas super tolérante avec ses minorités et que vivre en tant que minorité c'est subir beaucoup d'intolérance, de vexations, voire d'exactions, bah tombez pas dans le mythe du bon sauvage, dites-vous qu'être une minorité en Palestine en 1930, c'est 100x pire : que la tolérance y est 10x moins présente et que les autorités étaient 10x moins en mesure d'empêcher une situation tendue de dégénérer.

Bien sûr, il y avait aussi des tas d'arabes tolérants, des justes qui ont même, parfois, défendu, sauvé, ou abrité des juifs pendant que telle ou telle émeute, tel ou tel pogrom avait lieu. Ou plus couramment qui n'ont trouvé aucun intérêt à aller passer leurs nerfs sur le village juif d'à côté quand bien même "ils en avaient gros". Comme la France de 2024, en Palestine aussi, il y avait une majorité de gens qui n'avaient pas envie de buter leur voisin quand bien même il pratiquait une autre religion et parlait une autre langue. Mais il suffit d'une grosse minorité d'excités du bocal pour rendre la situation explosive.

Les années 20, 30 et 40 sont ainsi des périodes avec de multiples révoltes et massacres : à Tel-Hai, dès début 1920, déjà, alors que les Britanniques et les Français viennent à peine d'arriver (en France on gérait le Liban et la Syrie, et les frontières entre ces zones n'étaient pas clairement définies), un massacre de juifs a lieu. Le mois suivant, idem à Jérusalem. En 21, c'est à Jaffa qu'une foule arabe lance une attaque. Rebelotte à Jérusalem fin 21. En 1929, 69 juifs sont massacré à Hébron. La même année, un pogrom a lieu à Safed. Et ainsi de suite jusque dans les années 40.

Face à ça, les juifs qui ont au début une attitude de restreinte et d'autodéfense mesurée, commencent petit à petit à s'agacer. Les groupes d'autodéfense mesurés se retrouvent dépassés par leur base qui fait sécession, des groupes commencent à s'armer plus franchement et à abandonner les politiques de représailles mesurées pour devenir beaucoup plus violents, avec une politique du genre "pour chaque attaque qu'on subit, répliquer par une attaque qui fait 10x plus de victimes". C'est la naissance de l'Irgun d'abord, puis du Lehi à partir de 1940. La situation dégénère avec une escalade de représailles et de contre-représailles toujours plus violentes de part et d'autre, et quand les Britanniques tentent de s'interposer ils se retrouvent généralement à s'en prendre plein la gueule des deux côtés.

Arrivé à la fin des années 40, les Britanniques en arrivent à la conclusion que le territoire est devenu ingouvernable, qu'il faut lui donner son indépendance, mais que le territoire ayant déjà au moins un pied (sinon deux) dans la guerre civile, créer un pays unitaire judéo-arabe n'est pas viable, il faut séparer les deux peuples géographiquement parce que manifestement ils n'arrivent pas à se blairer.

Le Royaume Uni refile la patate chaude à l'ONU fraîchement créée, qui approuve : il faudra partitionner la Palestine et séparer les deux populations, sinon le cycle de violence ne se terminera jamais, sauf à ce qu'un groupe élimine totalement l'autre : elle décide donc de créer un État juif à l'endroit où sont installées le gros des communautés juives (et de lui attribuer aussi le désert du Neguev), et un État arabe à l'endroit où sont installées le gros des communautés arabes.

Ironie de l'histoire : la Palestine aura beau être partitionnée, le cycle de violence ne s'est pas terminé pour autant, et encore à ce jour, une part de chacune des deux populations espère bien éliminer totalement l'autre du territoire.

n'étant pas historien je ne m'étendrai pas sur l'exactitude de ces explications

par contre sur la forme, félicitations, je trouve que c'est un superbe exemple de vulgarisation et je n'y vois pas d'expression d'opinion, c'est vraiment du beau boulot, merci :)

Le 12/09/2024 à 16h 44

merci pour l'article

inquiétant en effet que des sites dont c'est le boulot fassent encore appel à une version obsolète qui tape sur un nom de domaine abandonné et les soucis de sécurité qui peuvent en découler :s

Le 10/09/2024 à 17h 47

Pour augmenter encore la densité, les fabricants sont passé à autre chose aussi : HAMR et MAMR. Ici par exemple.

merci pour le rappel, je n'y pensais plus

cela dit, même si effectivement il n'y a plus "besoin" du SMR pour aller au-delà de la densité du CMR, je me demande bien la raison technique qui fait qu'ils n'ont pas été au-delà des 20% ici

je suppose très fortement que le SMR n'est pas compatible avec le HAMR (MAMR même combat) puisque le but est de réduire la largeur de la piste à l'écriture, donc plus de "bavure" exploitable pour le SMR, pas de souci là-dessus.

sauf erreur, CMR et SMR exploitent la même mécanique, c'est peut-être "juste" une histoire de firmware qui gère la superposition des pistes et l'amplification en écriture sur SMR (j'imagine que la différence de prix fait qu'acheter un 12To SMR pour en faire un 6To CMR en flashant le firmware n'est absolument pas intéressant de toute façon)

mais "si" rien n’empêche de doubler (ou disons ajouter 50%) la capacité d'un CMR avec du SMR, il devrait y avoir de la place pour une offre 36To SMR (50% de plus par rapport au 24To CMR), donc ma question initiale était si cette absence de SMR avec des gros gains en capacité sur le CMR était due à un choix commercial pour pas cannibaliser les autres techno, ou s'il y avait une contrainte technique.

après, j'imagine bien que ce genre de réponse ne se trouve pas dans un communiqué de presse et qu'on ne l'aura probablement jamais, c'était plus une réflexion à "clavier haut" qu'autre chose finalement :)

Le 10/09/2024 à 16h 04

je suis étonné par la "faiblesse" du gain en SMR par rapport au CMR, de mémoire, les disques 2.5 2to sont tous en SMR, alors que les 1 to existent en CMR, donc à priori dans ce cas c'est 100% d'augmentation (les disques >2to sont plus épais, car avec plus de plateaux donc non-comparables)

là le gain un peu sous les 20% semble bas en comparaison avec ce que le SMR permet ailleurs

est-ce que "ça y est", les têtes d'écritures arrivent à écrire sur des pistes presque aussi fines que ce qui est faisable en lecture ? (c'est le principe sur SMR, l'écriture "bave" beaucoup, donc on ré-écrit sur une partie de la piste précédente, en utilisant la "bavure" qui n'a pas été ré-écrite par la piste d'à coté pour la lecture)

Le 10/09/2024 à 15h 52

je pense que c'est "broadcom" le lien :)
sur le fait de ne pas tenir ses engagements en logiciel ici avec vmware, et en matériel avec samsung apparemment

edit : grillé :D (+ typo)

Le 09/09/2024 à 10h 06

Pour comprendre (et sans parler du prix), est-ce que ce produit consommerait moins de CPU que celui qui est testé dans cet article : https://www.caldigit.com/connect-10-g/ ?

j'aurai tendance à penser que non, le fait de passer par l'usb me semblerait forcément faire appel à une gestion via le CPU

sur un ordi (pas portable) avec une carte en pcie y'a pas l'étage "usb" à gérer (mais le cpu doit superviser quand même des choses)

cela dit, vu que l'usb-c (en usb3.quelque chose) ne fait qu'encapsuler du pcie, je ne saurais pas dire quelle surcharge ça fait sur le cpu de gérer cette encapsulation

cela dit (bis), les ports pcie peuvent être gérés directement par le cpu, ou par le chipset de la carte mère, et je n'ai strictement aucune idée si l'un ou l'autre allège ou alourdi la charge cpu dans ce genre de cas

Le 09/08/2024 à 16h 04

le linky n'a qu'un seul "contact sec" physique (pour piloter le chauffe-eau en HC/HP en général) le reste n'est que "virtuel" et accessible par la TIC, il faut donc un appareil supplémentaire pour gérer les autres "canaux" (I1 et I2 comme tu le supposais)

la TIC (quel que soit le mode) ne fait que fournir des infos en continu, il n'y a aucune dépendance à la télémétrie vers enedis à priori (j'avais regardé il y a ... quelques années :'( et il n'y avait pas l'air d'y avoir d'info particulière qui en aurait eu besoin)

par contre le linky envoi un minimum d'infos vers enedis, au moins une fois par jour il me semble, je crois pas qu'il soit possible d'aller "en dessous" de cette fréquence (si ça ne répond pas à la dernière partie de ta question, je n'ai pas compris)

Le 09/08/2024 à 15h 55

Allez, cadeau de la maison le début du para juste après le paywall :
Le mode historique est aussi utilisé par d’anciens compteurs (d’où son nom) et permet donc au Linky…

Pour la seconde partie, oui un ESP suffirait largement, mais je préfère prendre une base que je pourrais utiliser pour une intégration avec HA ou autre. C’est un peu overkill je te l’accorde, mais le Raspberry Pi est facile à prendre en main et permet de faire bien plus de choses :)

haha, bien joué, je me suis donc fait eu (mais j'avais bien soupçonné qu'il pouvait y avoir des précisions dans l'article :p)

pour tout dire l'esp que j'utilise ... est interrogé toutes les 6 minutes par un pi (qui balance vers thingspeak pour que je puisse avoir mon propre suivi sans flinguer une carte sd)

Le 09/08/2024 à 15h 51

Un de ces 4 fry, si je calcule bien et si ma fx92 collège est correctement overclockée, ça tombe un 9 août 2024 dis donc ! Si c'est pas une merveille de hasard bon sang ! ça mérite un :kimouss: :D

:D (au passage, merci et félicitations pour les illustrations de manière générale ;))

(je dois avouer que j'attendais en partie un "poing dev'" pour relancer l'équipe sur la liaison avec le forum auquel je peux plus me connecter (changement d'ordi, perte de cookie, souci de hanshake entre le forum et le site (le forum tape sur une api de l'ancien site à priori) ...) avant de me reprendre un coup d'abo :p)

Le 09/08/2024 à 15h 46

merci pour les précisions :)

Le 09/08/2024 à 14h 52

juste une chose pour pinailler, la TIC n'est pas apparue avec le linky, les compteurs d'au moins la génération d'avant (blancs, ceux électroniques, pas ceux à roue faut pas déconner non plus, je sais pas s'il y en a eu entre ces deux là), d'où le nom du mode "historique" qui est celui des compteurs "blancs"

(toutes mes excuses si c'est précisé dans l'article, va falloir que je me réabonne un de ces 4)

y'a même plus simple (léger/petit) qu'un pi pour lire ça, un petit esp 8266 suffit pour présenter une page web accessible depuis n'importe quel navigateur sur le même réseau ;)

Le 09/08/2024 à 11h 08

800km pour ces débris, 400km pour l'ISS.
A cette altitude on est sur une surface de 615 millions de km2 (S=615.000.000km2). Admettons largement qu'un débri face 1m2 (d=0,000.001km2). L'ISS fait tout inclut environ 8.000m2 (i=0,008km2).
Quand les débris auront déjà chuté de 400km il auront une vitesse verticale assez conséquente par rapport à l'épaisseur de l'ISS.

Donc même en ne faisant rien l'ISS a toute ces chances.

Et plus on est capable de suivre ces débris et de faire slalomer l'ISS.
L'Espace c'est surtout du vide en 3 dimensions.

--
Sur une zone de 25km sur 25km (615.000.000m2),
Paris c'est 480km2, on est sur 30% plus grand que Paris,
google.com Google
On choisit un terrain de foot (0,008m2),

On laissant tomber 50 fourmis de 2mm sur 1mm (0,000.001m2) au-dessus
Quelle probabilité tombe sur le terrain de foot?

Difficile à viser, non?
google.com Google

vi, les stats basses ne m'étonnent pas, mais avec murphy on n'est jamais à l'abris ... :D

l'inconvénient de résumer que les stats sont basses, c'est que ça masque la gravité des conséquences si ce malheureux cas se produit

on a beau dire que l'avion est le moyen de transport le plus sûr d'après les stats, quand y'a un crash c'est direct 200 personnes au tapis,
alors qu'en voiture, quand y'a 10 personnes d'un coup c'est assez exceptionnel

Le 09/08/2024 à 10h 06

techniquement starlink pourrait, je suppose
mais je pense que ça s’arrêterait là :(

cela dit, starlink ou autre satellite commercial, "osef", c'est l'iss et autres télescopes pour lesquels ça m’inquiéterait plus (mais je connais pas leurs altitudes, ils sont peut-être hors de danger :) )

je qui serait "drôle" en revanche, c'est que ça casse un satellite "espion", américain ou chinois (ou encore mieux, les deux) :D

Le 08/08/2024 à 10h 36

Certe Delta joue la mauvaise foi. Mais...

Delta n'a pas demandé à MS de certifier un driver qui peut side-loader des fichiers random.
Delta n'a pas demandé à CrowdStrike de publier des fichiers qui font planter son propre driver.
Delta n'a pas demandé à ce que ses PC refusent de booter à cause des 2 points précédents.


Si tu estime que les dégâts de ton chauffe-eau sont dus à l'incompétence du plombier, est-ce que tu acceptes que le plombier revienne bricoler ton installation ? hmm....

c'est pas totalement faux, mais réclamer un dédommagement pour 3 jour d'eau qui coule à fond quand on t'a dit au bout d'une heure comment couper l'eau, sans parler des dégâts fait par les 3 jours d’inondation au lieu d'avoir "juste" à éponger la flotte en trop pendant 1h, c'est malvenu je trouve

je dis pas que crowdstrike est innocent, loin de là, mais j'ai quand même l'impression que delta a laissé s'aggraver la situation (ou qu'un défaut chez delta a fait que le souci crowdstrike a eu un plus gros impact qu'il n'aurait dû) et qu'il faut trouver qqn d'externe pour payer ce surplus de réparations

edit : typo

Le 07/08/2024 à 11h 40

(superbe illustration :D)

je dois reconnaître que delta semble pas vraiment fair play dans l'histoire et aurait fait pile les mauvais choix

si j'ai une fuite d'eau suite à l'intervention d'un plombier qui a remplacé mon chauffe-eau, il est légitime de lui demander de réparer / remplacer le chauffe-eau et compenser les éventuels dégâts "normaux" si le plafond du voisin du dessous a morflé
par contre si je range ma collection de bouquin anciens ou des serveurs sous ledit chauffe-eau sans protection particulière, c'est un peu normal que le plombier me dise que cette partie là n'est pas de son ressort (d'autant plus s'il m'a proposé de venir couper l'eau en 1h et que j'ai refusé en laissant la fuite inonder les bouquins/matos pendant 3 jours avant de couper l'eau)

l'analogie est probablement foireuse, mais les deux réponses des avocats semblent aller dans le même sens

Le 08/08/2024 à 10h 21

Pas certain que cela soit apprécié de la même manière pour une porte (une bonne serrure sur une porte d'apparence pourrie mais solide sera remarquée par qqun d'attentif se cherchant une cible), mais mon vélo est parfaitement fonctionnel, j'avais oublié de le signaler, même si j'ai laissé son aspect se dégrader: Transmission, roulements, freinage, pneus sont changés quand il y a besoin.

bah, le vélo rouillé, s'il tombe en lambeaux c'est pas pratique pour s'en servir
la porte rouillée, si elle tombe en lambeaux, c'est très pratique pour récupérer ce qu'il y a derrière sans la clef ...

Le 07/08/2024 à 10h 29

Je pense que les progrès engendré par l'IA seront auto-limité par la limite de production énergétique que l'humanité ne pourras absolument pas dépassé dans tous les cas, est-ce que ça nous emmènera à notre propre perte ? je ne sais pas.

le problème que je vois c'est que je soupçonne l'humanité d’être capable d'avoir une production énergétique considérablement destructrice, et qu'on rendra la planète inhabitable bien avant d’être confronté aux limites physiques de production énergétique :(

Le 05/08/2024 à 17h 25

c'est à ça que je pense aussi, avec les couleurs faisant penser à la "vision thermique" (ajoutée en post-prod dans le film vu que le climat tropical donnait rien d'exploitable avec les vraies camera thermiques :D)

Le 05/08/2024 à 14h 50

un soupçon (pas plus pertinent qu'un commentaire PMU hein), c'est que le terme "lithiation", c'est l’agglomération des ions lithium vers un milieu en particulier.

lors de la charge ou de la décharge les ions migrent d'une électrode vers la solution dans laquelle est l'électrode ou inversement.
à un moment il y a "lithiation" de l'électrode et "délitiation" de la solution, ou l'inverse, du coup charge et décharge produisent toutes les deux une "lithiation" quelque part, et ce terme ne permettrait de savoir s'il s'agit d'une charge ou d'une décharge que si on précise le milieu qui subit la "lithiation"

pure théorie de ma part, je suis également preneur de toute explication plus étayée :)

Le 05/08/2024 à 10h 02

Hello ! À première vue le micro-code est bien modifié avec ce patch

"Updated with microcode 0x125 to ensure eTVB operates within Intel specifications.
Updating this BIOS will simultaneously update the corresponding Intel ME to version 16.1.30.2307v4. Please note after you update this BIOS, the ME version remains the updated one even if you roll back to an older BIOS later."


Pour moi on parle bien d'une update du microcode ainsi que du driver Intel ME.

Ce qui expliquerai bien comment j'ai pu gagner autant en stabilité alors qu'avant, le moindre undervolt provoquait des BSOD 🤐

donc à priori ce n'est "que" la correction du eTVB, c'est pas la correction du défaut profond du micro-code (le eTVB n'était que la partie émergée de l'iceberg des soucis de voltage)

avec un peu de (mal)chance, avant t'avais le souci du eTVB, maintenant quand tu sous-volte, le défaut du micro-code demande plus de volts (malgré le paramétrage du bios) donc c'est stable, mais ça survolte et ça va endommager le cpu

je plaisante (à moitié, un gag comme ça pourrait arriver) ton sous-voltage est forcément effectif sinon tu ne verrai pas une baisse de W

euh, j'ai un doute, pour passer de 200w à 110w, tu le sais comment ? c'est un logiciel de monitoring qui te le dit ou c'est un wattmètre sur la prise ?
si c'est logiciel, ça pourrait n'être "que théorique", rien ne vaut une vraie bonne mesure physique

cela dit, la température inférieure semble cohérente avec une puissance électrique en baisse

Le 31/07/2024 à 09h 55

Une petite faute de frappe je pense dans le calcul de fry. 21,85m/s = 78,6km/h, pas 75,6km/h.

En fait, le différentiel de vitesse nécessaire pour doubler un véhicule ne dépend pas de la vitesse des véhicules, uniquement du temps souhaité et de la distance "en plus" que doit parcours le véhicule qui double.

Si on pose mathématiquement :
- v1 : vitesse de la voiture qui est doublé
- v2 : vitesse de la voiture qui double
- d1 : distance parcouru par la voiture doublé
- d2 : distance parcouru par la voiture qui double
- D : distance parcouru en plus par la voiture qui double pour pouvoir doubler (ici = 50m)
- t : le temps écoulé

Alors on cherche à calculer v2 à partir de ces différents éléments.
Ce que l'on sait, c'est que :
d2 = d1 + D

comme d1 = v1 x t et d2 = v2 x t, on obtient :
v2 x t = v1 x t + D
v2 = v1 + D/t

et donc le différentiel de vitesse : v2 - v1 = D/t. Indépendant de la vitesse initiale des véhicules (je suis resté dans le cas où on peut considérer la vitesse des véhicules comme étant non relativiste, approximation hautement valable tant qu'on reste à des vitesse bien inférieure à celle de la vitesse de la lumière ^^)

Résultat des courses (désolé pour le jeu de mot), pour dépasser un véhicule en prenant une marge de 25m avant et après (D = 50m), il faut :
- pour 30s : 6 km/h de plus
- pour 27s: 6,67 km/h de plus
- pour 20s: 9km/h de plus
- pour 15s: 12 km/h de plus
- pour 10s: 18 km/h de plus

Juste un mot non pas sur la vitesse, mais sur le temps nécessaire : il faut le minimiser surtout sur route, pas tant sur autoroute. En effet, sur route, une voiture peut arriver d'en face, pas sur autoroute (en théorie), et il est donc nécessaire de limiter la durée pendant laquelle la voiture est déportée sur la voie d'en face (dans le cas d'une 1x1 voie hein !).

merci pour les corrections
partir de la distance totale à parcourir était plus simple (pour moi) pour dérouler le calcul, je voyais pas trop pourquoi le calcul initial de @Wosgien donnais une vitesse si basse donc j'ai repris autrement pour voir si j’aboutissais au même résultat, ce qui n'était pas le cas (sans parler de ma faute de frappe, merci de l'avoir relevée)

Le 30/07/2024 à 17h 33

Et de se la jouer mad max ça te rend fier?
20km/h pour un dépassement? 2km/h de plus suffisent à la faire dans les 30 s (25m avant, 25 m après, 50m à couvrir -> 27s à 2km/h)
4km/h, c'est 12s.
20km/h de différence, c'est 2s. Tu es totalement dans les limites humaines du réflexe en cas de problème.

je pense qu'il manque la vitesse du véhicule à dépasser qui lui aussi se déplace pendant les 27s, donc c'est pas 50m à couvrir, c'est 50m + la distance parcourue par le véhicule à doubler, ou alors j'ai raté un morceau du calcul

prenons le calcul à l'envers : on veut dépasser un véhicule qui roule à 72 (20m/s, ça simplifie les choses)
admettons qu'on veuille le doubler en 20s (arbitraire pour rester dans tes ordres de grandeurs)
en 20s, lui aura parcouru 400m
si toi tu dois parcourir 450m en 20s il faut rouler à 22.5m/s soit 79.2km/h

je refais avec 27s
à 72 ça fait 540m, pour en faire 590 en 27s il faut rouler à 21.85m/s soit 75.6

sauf erreur grossière dans mes calculs, 2km/h de plus ne suffisent pas à doubler qqn qui roule à 72km/h en moins de 30s :(

Le 30/07/2024 à 17h 03

Faut dire que le cloud, c'est surtout du Linux, il me semble, même chez Microsoft. Et bon, le cloud, c'est peut-être bien, mais il faut quand même un "ordinateur physique" pour y accéder.

hum, dans ce cas l'affirmation de Parametrix est encore plus louche, dire que ceux qui avait des "systèmes basés sur le cloud" ont été rétabli plus vite alors que les linux n'étaient pas touchés n'est pas vraiment cohérent avec l'idée que le cloud en question "c'est surtout du linux"

(j'ai probablement mal compris ton message ou en tout cas je ne vois pas où tu veux en venir, je suis à peu près certain que du coup ma réponse n'a aucun sens XD)

Le 30/07/2024 à 15h 12

Pas la peine d'écrire un pavé.

Je répondais simplement sur des sujets que tu donnais en exemple pour tes affirmations et qui étaient... faux.

relis bien, il ne s'agissait pas d'affirmations, mais de démonstration par l'absurde, je pense qu'il suffit de lire le reste de mes messages pour comprendre le genre de tournures employées.

quand est apparue la possibilité de télécharger préventivement pour consulter "offline" sur netflix et autres deezer ? (question rhétorique, bien après que les services se soient lancés, quand les gens ont commencé à gueuler qu'ils pouvaient pas utiliser le service si la connexion était pas parfaite ...)

de plus, si on ne prévoit pas d’être offline et qu'on fait aveuglément confiance à ces services (ce qui est largement encouragé par lesdits services), quand la coupure arrive c'est trop tard pour faire sa liste "de secours",
sans parler du fait que pour le peu que j'ai expérimenté de ces services, la partie "offline" est limitée dans le temps (du genre 1 semaine de mémoire pour une série que je comptais regarder dans le train, alors que le replay était annoncé valide plus de 3 mois), si tu te prévois ton "mode dégradé" en faisant une liste de musique/films en avril et qu'il y a une coupure en août les droits auront expirés et le "backup" sera inutilisable.

tu as raison sur un point, il existe parfois des solutions "de secours" par rapport à mes exemples, mais reconnais qu'elles sont quand même volontairement et exagérément dégradées (ou cachées) pour freiner leur utilisation

Le 30/07/2024 à 11h 53

Réponse groupée:

- un agriculteur n'a pas besoin d'Internet pour cultiver son champ.
- soit il télécharge un plan à l'avance pour l'utiliser sur son "GPS"
- soit il le fait manuellement (à l'ancienne)
Un tracteur n'est pas bloqué car il n'a pas accès à Internet.

C'est peut être ce qui se fait aux US mais pas en France.

Les abonnés aux services de Streaming qu'ils soient de musique ou vidéo ont la possibilité de télécharger pour faire du hors ligne.
Pour les autres, il existe encore des supports physiques.

Il semblerait que comme pour l'idéalisation du "c'était mieux avant", une grande partie de ton discours soit basée sur des faits que tu maitrises mal.

il me semble avoir lu des débat où tu jouais moins les trolls, là clairement tu ne veux pas comprendre et me prêtes des idées que je n'ai pas.

je n'ai strictement jamais dit que "c'était mieux avant", et je ne l'idéalise pas du tout.

le SEUL truc que je dis c'est qu'on savait faire sans internet, c'est pourtant pas bien compliqué de comprendre qu'on devrait être capable de fonctionner avec un service minimum quitte à faire "à l'ancienne" quand y'a pas de connexion au lieu d’être totalement au chômage technique pendant 2h / 2 jours / 2 mois le temps que ce soit réparé ?

déléguer à outrance "dans le cloud" car "c'est mieux la technologie, à bas les technique du passé", c'est se permettre de ne pas comprendre ce qu'on fait (l'ia dans le cloud fait mieux que moi, je lui laisse tout faire) et se retrouver incapable de le faire sans internet, je trouve ça débile

sous prétexte qu'on a tous une appli "calculette" sur son téléphone, il est normal d’être incapable de faire des opération mathématiques de base ?
je parle pas de connaître les tables de multiplications de 1 à 1 milliard ou de faire de tête la racine carrée de 123456789, mais de comprendre comment ça fonctionne pour quand même savoir faire une addition ou une multiplication si on n'a plus de batterie.

Le 30/07/2024 à 09h 42

Je te l'accorde pour les exemples que tu donnes et qui sont évidents d'idiotie.

Par contre, si on reprend mon exemple du feu, j'imagine que tu serais aujourd'hui incapable d'en faire sans allumettes, briquet, loupe, électricité ou autre outil. Pourtant, on a décidé collectivement d'abandonner/oublier comment faire du feu sans nos outils biens précieux, tout simplement parce que ces outils sont trop pratiques et fiables pour êtres mis de côté.
Internet, c'est pareil : c'est extrêmement pratique ET fiable. On pourrait peut-être encore améliorer la redondance (on sait faire) mais ça coûte cher et ça n'en vaut pas forcément le prix.

suite à nos divers échanges je pense qu'on n'est pas si en désaccord que ça :)
"internet" (et beaucoup de technologies) sont super utiles à n'en pas douter, mais pour les choses qui n'en n'ont pas un besoin fondamental je trouve absurde de nous conditionner à accepter qu'internet est nécessaire

comme les imprimantes qui refusent d'imprimer en noir et blanc quand la cartouche "rouge" est vide, d'après un compteur théorique, même pas d'après un capteur physique (double absurdité)

je connais les techniques pour faire du feu sans briquet (jamais eu besoin de les mettre en pratique par contre), si je me retrouve largué en pleine nature j'ai quelques notions qui théoriquement me permettraient de tenir ( ... quelques heures avouons-le, pas des mois XD),
ça me semble plus logique que de partir du postula que "j'ai un gps, je ne serrai jamais perdu dans la nature" (ce qui est le cas quand on fait tout passer par internet, même le superflux qui devrait (selon moi) pouvoir s'en passer, l'accro à deezer/spotify/autre service de streaming se retrouve totalement perdu sans internet, pourtant avec les smartphones avec 128 go de stockage cet accro devrait avoir accès à un "mode dégradé" en réécoutant des choses qu'il connaît déjà stockées sur son téléphone même sans connexion internet, mais ce mode dégradé à été volontairement détruit/caché par les services de streaming pour rendre internet "vital", ce qui ne devrait pas l’être et n'a aucune (bonne) raison de l’être quand on veut juste écouter de la musique)

Le 30/07/2024 à 09h 25

s'en remettre intégralement à des donnée externes, sans que la personne au contact de la terre n'ai plus la maîtrise de rien est purement et simplement absurde.
Bref, juste un Nième disciple de Gaïa qui idéalise le passé est sacralise la nature. La technologie c'est mal et le naturel est parfait.

encore un qui est passé totalement à coté de mon message