votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14066 commentaires

Le 09/04/2024 à 17h 57

En matière d'interaction humain-machine, l'IA et le langage naturel sont clairement une révolution de mon point de vue. Plutôt que de galérer dans un outil à trouver comment faire telle chose, on exprime un besoin. En matière d'usage et d'accessibilité, c'est un grand pas en avant.

Mais pour que ce soit efficace, il faut effectivement que e système comprenne bien la demande utilisateur et donc que les données associées soient suffisamment qualitatives.

Le 09/04/2024 à 07h 37

Quand je vois la capacité "aléatoire" de Spotify à me sortir quasi toujours la même chose sur une playlist de 400 titres ou sur les "artist radios", je m'attends pas à grand chose.

Le 09/04/2024 à 07h 33

Sachant qu'il faut se méfier des brèves en général, celles par l'IA ne faisant pas exception.

Un temps sur reddit c'était très utilisé, maintenant moins sinon plus du tout. Je me rappelle encore d'un article sur les Fondations politiques allemandes (des institutions propageant les intêrets allemands) qui s'amusent à vouloir saboter sinon stopper la politique nucléaire française.

Quelqu'un avait demandé à ChatGPT de faire une brève de l'article et ça s'arrêtait plus ou moins à ça, avec peu de détails. Comme on sait que l'Allemagne est nucléairophobe, on penserait que c'est le simple jeu d'influence entre États. L'Allemagne a ses idées et tente de les diffuser, comme beaucoup le font.

Mais il aurait juste fallu ajouter une ligne ou deux provenant de l'article montrant que l'Allemagne allait trop loin au point de tenter de dégrader les relations entre la France et ses fournisseurs, genre au Niger en développant un narratif caricatural affirmant que la France mène une politique néocoloniale au dépend de ce pays.

Ce qui change la teneur de la brève, car ça fait d'eux des ennemis qui mériteraient de se prendre quelques missiles sur leurs centrales à charbon en représailles. Ça aurait le mérite d'aider le climat en bonus.

C'est une des méthodes de base de la désinformation : sortir un élément de son contexte, lui faire dire autre chose, et ajouter du mensonge par omission.

Dans tous les cas, l'information doit être vérifiée et il ne faut jamais se contenter des trois lignes publiées sur un gaveur de contenus. En particulier quand ils sont mis en avant pour on ne sait trop quelle raison.

Le 08/04/2024 à 13h 23

En fait l'IA est capable de recouper et synthétiser des informations pour diffuser des "brèves" assez rapidement. Son usage dans le journalisme ne date pas de ChatGPT même. C'est un cas pratique où elle est pertinente.

Mais comme toujours, sans vérification ni contrôle, ça ne sera qu'une usine à merde. Et comme ce genre de plateforme compte sur la rapidité, la mise en avant et l'aspect viral des contenus, ça produit ce qui est attendu : de la merde industrialisée.

Le 08/04/2024 à 10h 20

Ce qui démontre surtout toute la stupidité autour des contenus mis en avant pour des critères purement arbitraires sans aucune valeur.

Peu importe qu'ils soient générés par IA ou une ferme à troll ou Dédé entre deux pintes.

Le 08/04/2024 à 20h 51

Potentiellement une boucle.

Quand j'ai joué avec Mixtral 8x7B pour tester un cas d'usage de relecture / amélioration de texte, j'ai eu l'idée saugrenue de lui faire relire ensuite ses propositions.

Il trouvait systématiquement quelque chose à redire et à reformuler, même paramétré en strict.

Encore plus amusant, il trouvait des erreurs qui n'existaient pas.

Le 08/04/2024 à 10h 18

Pas d'accord. Si la note n'est pas super précise, avec un bon barême, elle permet tout à fait de noter chaque notion évoquée en cours.

Quand à l'oral, c'est ce qui se fait en étude supérieures avec les colles. Mais c'est une pression énorme pour les élèves, il y a une proportion non négligeable qui craque avant/pendant/après une colle. Alors que dans les fait, une colle c'est juste une interro orale, mais le côté "personnel"/"intime" est un énorme poids.

Je pense que l'IA peut être une bonne idée pour préparer une interro: une IA capable de soulever des points noirs dans les réponses, de faire réagir l'élève, peut être un énorme plus dans l'apprentissage.

Beaucoup d'élèves se noient dans le cours: n'y voient que du par coeur, n'y voient pas le cheminement. Il n'y a qu'en s'entraînant qu'on peut progresser. Or, les élèves ont beaucoup trop de sollicitations à côté, et comme ils ont des exigences d'animation énormes maintenant, le travail et la progression personnelle ne leur apporte pas assez de satisfaction/amusement. Donc un coach numérique IA, un truc qui pré note, je trouve cela très intéressant pour essayer de remédier au gap énorme entre les attentes/exigences des élèves et les possibilités de l'éducation nationale.

Pas d'accord. Si la note n'est pas super précise, avec un bon barême, elle permet tout à fait de noter chaque notion évoquée en cours.
C'est précisément ce que j'ai écrit !
(...) les notes ne veulent rien dire (...)
Pourquoi ? Parce qu'il manque les critères associés pour définir le score. Si certains sont évidents, d'autres moins (je pense notamment aux dissertations de philosophie au lycée où je tournais aux mêmes valeurs avec peu de commentaires associés) et sans référentiel, difficile de savoir comment se positionner.
Quant à l'idée du coach IA, oui c'est un très bon cas d'usage de ces outils pour aider à apprendre et interroger. J'avais expérimenté ceci l'année dernière en simulant l'équivalent d'une certification d'un CSP. Forcément j'étais limité par les capacités de l'outil qui avait du mal à générer des réponses aléatoires accompagnant la bonne et le pattern s'identifiait rapidement, mais moyennant le développement adapté (ici c'était ChatGPT qui n'est pas fait pour) c'est parfaitement jouable.

Le 08/04/2024 à 08h 44

Or, souligne Leidner, « un enseignant devrait être responsable de la notation, mais peut confier une certaine responsabilité à l'IA », alors que la notation devrait être « personnalisée » afin que les enseignants puissent fournir des commentaires plus spécifiques et témoigner du travail des élèves et, par conséquent, leur permettre de progresser au fil du temps.
Absolument. Bien qu'ici on parle des USA, si je me réfère à mon expérience de la scolarité (qui remonte un peu, et je n'ai aucune idée des pratiques actuelles) : les notes ne veulent rien dire. Tout comme aujourd'hui quand je vois des trucs à 5 étoiles, ça n'a aucun sens de mon point de vue.

Pourquoi ? Parce qu'il manque les critères associés pour définir le score. Si certains sont évidents, d'autres moins (je pense notamment aux dissertations de philosophie au lycée où je tournais aux mêmes valeurs avec peu de commentaires associés) et sans référentiel, difficile de savoir comment se positionner.

Et pour revenir à l'histoire de détection de plagiat, en fait je verrais un moyen simple et plutôt efficace, mais forcément plus consommateur en temps : l'oral. En dehors de la tricherie bien organisée (qui je pense reste très rare), celle réalisée par fainéantise se détectera immédiatement puisque la personne va botter en touche sur le travail fourni. Perso je le vois dans le contexte professionnel où les "solutions ChatGPT" pullulent aussi. Grattez un peu et vous découvrez immédiatement le pot-aux-roses.

Le 08/04/2024 à 08h 27

Si encore pour l'image la détection de contenu généré par IA marche plutôt bien (surtout avec les ajouts de filigrane), pour le texte les outils sont mauvais. OpenAI avait jeté l'éponge sur ce point justement.

Perso j'arrive à le repérer, enfin soupçonner plutôt, grâce à l'expérience de l'usage de ces outils combinée à l'absence de maîtrise des personnes les utilisant. Mais d'une manière automatisée, j'ai des doutes que ça ait un jour une quelconque efficacité.

Le 08/04/2024 à 19h 01

Ah bah au moins ça changera dans les réponses de ChatGPT ! Plutôt que de faire la morale à la fin de chaque résultat, il viendra dire "abonnez-vous et mettez un pouce".

Le 08/04/2024 à 19h 00

Oh ça ne serait pas le genre de la maison.

Le 06/04/2024 à 16h 56

C'est certes dérangeant à concevoir, mais notre cerveau est également +/- une machine statistique.
C'est même complètement ça. Même si dans notre modèle de pensée il y a encore des mécaniques incomprises, d'ordre général un raisonnement est une analyse de possibilités avec des pours et des contres en se basant sur nos connaissances, notre expérience, et des sources externes.

Ce que fait GPT aussi qui analyse toutes les possibilités pour prédire le prochain token d'une suite de texte.

D'ailleurs en parlant des mécaniques de notre cerveau, une intéressante est démontrée par l'idée du canard en plastique pour debugger.

Quand on raisonne intérieurement, le débit de pensée est rapide et part dans tous les sens. Lorsque le point de blocage arrive (le problème) et qu'on arrive pas à trouver la solution par soit-même, on s'adresse à une aide (ici : le canard). Plus on expose la problématique au canard, plus l'effet eureka ! arrive.

Pourquoi ? Tout simplement parce que lors de l'expression orale, le débit de pensée ralenti et devient plus concis. De plus, on ajoute des détails qu'on ignorerait implicitement car évidents.

D'un certain point de vue, un modèle d'IA générative a une variation similaire. Paramétré avec une température trop élevée (et pas que), il va évaluer beaucoup trop de possibilités et produire un contenu plus aléatoire. En somme, le modèle est créatif. Réduire sa température (ainsi que moduler d'autres params) revient à le rendre plus concis et précis, plus déterministe. Soit comme lorsqu'on s'exprime oralement au sujet d'une problématique et que l'effet eureka ! arrive.

Le fait d'avoir expérimenté avec le Mixtral 8x7B d'Infomaniak était même intéressant pour constater ces variations.

Le 06/04/2024 à 10h 13

J'ai toujours du mal avec le fait de considérer le phénomène d'hallucination de l'IA générative comme un problème. De plus, une hallucination n'est pas forcément la création d'une incohérence ou d'une erreur sauf si le référentiel de celle-ci est considérer qu'une chose qui n'existe pas est incohérente. Auquel cas, en tant qu'auteur de science fiction, j'hallucine, je suis incohérent et je fabule car j'écris au sujet de faits inventés, irréels et irréalistes (m'enfin, après tout, les écrivains sont souvent considérés comme ayant un grain, donc peut être que c'est le cas).

C'est au contraire sa principale fonctionnalité : imaginer, inventer, produire (ne prenez pas ces mots au pied de la lettre en me disant que c'est que du compute, c'est pas le sujet). Si la demande est d'avoir un système répondant avec exactitude et précision, déterministe, et ne faisant pas d'erreur, c'est pas l'IA générative qu'il faut utiliser mais une base de données et un index, et un machine learning plus classique comme celui utilisé pour identifier des tendances dans des logs applicatives par exemple. Dans un tel cas d'usage, l'intérêt de l'IA générative serait plutôt de synthétiser et extraire de l'information à partir de données cohérentes et définies. Ce qui revient à faire du RAG.

A l'inverse, si on demande à l'IA générative de produire des itérations de possibilités, ce qui au final est son job (générative n'est pas là pour rien, sinon encore une fois c'est juste un index et une BDD qu'il vous faut), c'est là qu'on peut exploiter son potentiel.

L'un des autres points avec lesquels j'ai toujours du mal, c'est de reprocher à l'intelligence artificielle les erreurs qu'elle peut générer, alors que c'est un produit créé par des humains. Machins biologiques imparfaits et qui passent leur temps à en faire des erreurs. Comment peut-on espérer la perfection quand le créateur ne l'est pas ?

Cela me fait donc souvent questionner sur l'attente autour de l'IA. Si l'idée est d'avoir une chose infaillible, désolé, mais ça n'arrivera jamais. Si l'IT était infaillible, je serais chômeur depuis très longtemps.

Pour moi, le principal problème se trouve autour de nos attentes et rapport vis à vis de notre technologie. Si on attend d'elle qu'elle soit constamment parfaite et infaillible sans jamais la remettre en question, dans ce cas on va droit dans le mur. Dans le même mur que se prennent les personnes subissant la désinformation de masse car consommant passivement et stupidement les contenus déversés par d'autres technologies via les entonnoirs à gavage. La confiance dans la technologie est une chose, mais comme dit l'adage : la confiance n'exclue pas le contrôle.

Le 06/04/2024 à 10h 24

Ah làlàlà, les bonnes vieilles guéguerres stériles disant que Machin est mieux que Bidule sous prétexte que Chose (insérez les noms de religions qui vous plairont).

Pendant ce temps, Microsoft est créateur et/ou mainteneur de deux distributions) Linux (la deuxième ayant été cédée à la Linux Foundation depuis).

Le 04/04/2024 à 16h 48

Autant pour moi c'tétait 2,21 GigOwatt :-) (je suis allé reverifier)

par contre dans sliders je n'ai pas souvenir de combien d'énergie il avait eu besoin pour son 1er portail ;-)

Je sais pas, mais vu la taille de la télécommande qu'ils avaient dans la série, ça doit être des sacré Duracell dedans !

Le 04/04/2024 à 13h 47

C'est presque deux fois ce qu'il faut pour voyager dans le temps....

Mauvais exemple. Vu son nom, il servira à mettre en place et maintenir un pont dans l'espace-temps via trou de ver.

Le 04/04/2024 à 13h 46

On peut imaginer que tu transmettes un message écrit (écrit dans le train par exemple) et qu'il soit lu dans la voiture de ton destinataire avec ta propre voix plutôt que celui de la synthèse vocale. Je crois que c'est Apple qui travaille un peu là dessus.

Au cinéma, la possibilité de refaire des séquences dont la captation son serait pas bonne, sans faire intervenir l'acteur d'origine.

Côté santé, permettre de reparler à des handicapés qui auraient perdus l'usage de la voix (via une puce Neuralink par exemple).

Au cinéma, la possibilité de refaire des séquences dont la captation son serait pas bonne, sans faire intervenir l'acteur d'origine.
Ou mort ou prenant sa retraite. Cf James Earl Jones.

Le 04/04/2024 à 07h 38

On reproche souvent à OVH (à tort ou à raison) de ne pas être un "vrai" Cloud provider. Mais cette transformation en régions et availability zones le rapproche beaucoup plus de ce modèle. Ici ça parle beaucoup de bare metal, mais j'imagine que les services PaaS en bénéficieront aussi vu ce qui se dit avec l'offre Public Cloud.

Le 03/04/2024 à 19h 04

Perso j'écoute pas de musique contemporaine (en dehors des OST de jeux etc), je suis incapable de citer le nom d'un artiste récent (voire même d'il y a dix ou quinze ans).

Si je me réfère à ce que j'entends dans les espace publics, on vit dans les années 90 après être passées des 80. Tout ce que j'entends, c'est ce que qui passait quand j'étais au collège ou au lycée avec un peu de basses en plus.

Donc visiblement, on ne sait déjà plus créer.

Surtout qu'une partie des titres de cette période étaient déjà des reprises.

Et quand ce sont des originaux (en tous cas, de ma connaissance), j'ai l'impression d'entendre un synthétiseur en train de chanter sur des rythmes déjà entendus.

Donc bon, encore une fois, on brandit la menace de l'IA contre quelque chose que l'industrie a elle-même créée : de la médiocrité produite en masse.

Dans tous les cas, l'industrie du divertissement est saturée à en mourir. La quantité de contenus produits tout support confondu est des centaines de fois supérieures à ce qu'une personne lambda peut consommer. J'ai donc envie de dire qu'ils craignent de voir arriver de nouvelles gouttes d'eau dans un océan de bruit.

Le 02/04/2024 à 22h 59

Parce que c'est plus rassurant un logiciel fermé ? Cette porte dérobée, même découverte par hasard, permet justement de prouver la confiance qu'on peut avoir dans les logiciels libres.

C'est même encore pire dans un logiciel aux sources fermées.

Nombre d'ERP du marché sont des passoires au socle technique obsolète reposant sur des libs open source pas spécialement à jour. Avec derrière un support que tu payes un fortune et qui est au mieux inutile. Ou alors ayant des interfaces de communication à la ramasse en matière de sécurisation. Ce qui leur "sauve" la mise c'est le fait qu'ils sont souvent prévus pour une installation on-premise donc en imaginant que la sécurité par les firewall c'est suffisant.

Le plus drôle, c'est quand ces vieux monolithes se "cloudifient" sans reconstruire leur produit en ce sens.

Le 02/04/2024 à 07h 36

Lorsqu'un utilisateur creuse un sujet, le moteur de recherche peut en effet « proposer des questions organiques et des questions sponsorisées par des marques », relève AdWeek.
Bah, ça devient juste la même merde inutile que Google Search en gros.

Le 31/03/2024 à 19h 54

Les sites de jeu en ligne devrait être interdit. C'est mon opinion, je ne te demande pas de la partager.

Je n'ai pas à décider quelle addiction est pire qu'une autre, quant à l'édito c'est comme beaucoup d'argumentaires qu'on peut entendre: il y a pire ailleurs alors ne faisons rien ici.

Je n'ai pas à décider quelle addiction est pire qu'une autre, quant à l'édito c'est comme beaucoup d'argumentaires qu'on peut entendre: il y a pire ailleurs alors ne faisons rien ici.
Ce n'est pas vraiment ce que j'en ai retenu. Il y a des addictions relatives à des services numériques en ligne, et je ne pense pas que cet édito le nie ou le sous estime (de plus il me semble que Next parle régulièrement des risqués liés au domaine du numérique).

C'est l'angle d'attaque qui est contesté, et c'était aussi mon propos sur le sujet de l'addiction. Celle-ci n'est pas forcément causée par un volume de donnée mais par des schémas d'usage qui font qu'on ne lève jamais le nez.

Je vais faire un petit parallèle relatif à une expérience personnelle. Depuis que j'ai redécouvert la musique en vinyle (car n'ayant jamais eu la nostalgie de ce support, c'était plus une opportunité curieuse), j'ai constaté quelque chose de bénéfique à ce dernier lors de sessions de travail (pro ou activité personnelle) en musique.

Avec un Spotify en lecture infinie, c'est un bruit de fond et derrière je ne levais quasi jamais le nez du guidon.

Avec un disque à retourner au bout de 15 ou 20 minutes, j'ai des micro pauses qui me font redresser la tête et me lever une minute.

Bah ça fait un bien fou.

D'où mon explication sur les mécanismes qui contribuent à l'addiction des services en ligne.

Le 30/03/2024 à 15h 13

Alors, c’est contre intuitif mais aujourd’hui les optimisations hardware font qu’on arrive à servir plus de gens avec moins de ressources.
La consommation énergétique des centres de données et du telco est assez stable alors que les usages explosent (hors IA et cryptos qui sont un vrai sujet)

Je n’ai pas un rapport religieux à l’écologie, ni même politique.
Je considère que c’est un sujet scientifique.
Et en matière de rationalité, voici les faits.

Prenons le worst case scenario : next.ink.
Next est virtualisé, mais l’ensemble de ses VMs tournent sur un serveur dédié.
C’est beaucoup moins efficace que l’hébergement en VPS, et encore moins que l’hébergement des gafams pour qui chaque cycle compte.
C’est aussi beaucoup plus cher, mais dans notre cas, pas tant que ça

Le serveur consomme 100w de charge moyenne.
Il sert environ 1000 visites par heure.
La distrib telco nationale est un non sujet, on parle de millièmes de W par visite.
Chaque visite va donc consommer 0,1Wh.
Sur un usage de 50 pages ouvertes sur une heure, un user aura consommé 5Wh (hors énergie du terminal évidemment).
A noter, que la page fasse 1Mo ou 100Mo, le résultat serait sensiblement le même, le serveur resterait idle, et le telco ne consomme rien.

La réalité du web, c’est que la majorité des requêtes sont faites sur des infras beaucoup plus optimisées, concentration des acteurs oblige. Sur un serveur optimisé, on peut tirer easy 100 000 visiteurs par heure sur le même budget énergie (nous avons un use case interne où nous envoyons 40 Gbps de données à 2k visiteurs en simultané, et sur du vieux matos qui plus est).

Refaisons rapidement le calcul : sur des sites aussi denses, on consomme 0,05Wh tout compris sur la partie serveur et distribution.
Bon. Est-ce que c’est vraiment la peine de prendre le haut parleur, d’attirer l’attention de tout le monde, alors que chacun de ces visiteurs a une conso de 500Wh h24 7j/7 avec des usages sur lesquels on peut effacer 50Wh avec la même quantité d’effort social ?

On peut tout à fait débattre de la place du numérique dans la société et dans l’environnement, évidemment. Il faut, même. Next sert à ça d’ailleurs.
Mais faisons le avec une connaissance précise du sujet. Sans science, point de salut.

Quand je vois cette démonstration, cela me rappelle nombre de problématiques que j'ai du adresser qui étaient systématiquement vues sous le prisme de la technique. Alors que le sujet de fond était purement organisationnel.

Ici, j'ai l'impression qu'on cherche à traiter un sujet sociétal au regard d'une donnée technique qui n'a que peu de valeur en réalité.

Le 30/03/2024 à 15h 09

Par contre n'oublions surtout pas de harceler les gens, un simple tweet à la c de 240 caractères consomme kedal. En gros le ludique, le créatif, l'éducatif ça ça bouffe de la bande passante, pas le harcèlement !

:smack:on va pouvoir continuer à se déchainer en ligne.

J'aimerais bien entendre Éric Bothorel lui expliquer 2-3 trucs

Pour le coup j'ai pas accès à Twitter donc je suis incapable de le dire. Mais combien pèse une page sur ce site ?

Sur l'instance Mastodon où je suis, la homepage avec les fils Home, Local, et les Mentions c'est 30MB en ce qui me concerne.

Le 30/03/2024 à 15h 05

"qu'une journée de TT par jour"
:transpi:

Oui bien vu, il fallait comprendre "par semaine" :transpi:

Le 30/03/2024 à 12h 35

Elle explique ressentir ce problème, succombant par exemple au dernier coup d’œil aux réseaux sociaux le soir avant de dormir, « et à me retrouver, deux heures plus tard, à commenter, à m'indigner, à sourire et à m'amuser aussi ».
Sur ce point, l'outil (Internet ou le Web) n'est pas en cause. Personne, je dis bien personne, ne vous colle un flingue sur la nuque pour aller lire la notif de dernière seconde dans votre lit. Si je fais partie des personnes dénonçant les pratiques addictives des médias sociaux, j'estime aussi qu'il y a une part de responsabilité personnelle.

Mon portable, le soir, il est dans mon bureau. Le seul appareil électronique dans ma chambre, en dehors du vénérable Nokia Lumia 530 qui me sert de réveil, c'est ma liseuse numérique. Que j'arrête une fois que j'ai décidé que c'était bon.

L'addiction des médias sociaux est similaire à cette stupide notion "droit à la déconnexion" au travail qui est un non sens pour moi. Ce n'est pas un droit, c'est un devoir, et personne n'a à vous contraindre -en dehors d'astreinte prévue pour- de jeter un oeil aux mails pro à 23 heures. Le problème est que tout ceci est de la pression insidieuse indirecte. Et ça, c'est pas la faute du Web (qui est un outil) mais d'entreprises/employeurs qui exploitent nos faiblesses psychologiques. Voilà un sujet de lutte qui me semble déjà plus pertinent.

Je me souviens des jeux d'origine coréenne qui affichaient régulièrement un message rappelant depuis combien de temps on était dessus (lié aux lois là bas en raison de la forte addiction aux jeux vidéo qui a conduit à des drames). Il y a des moyens de lutter contre les mécanismes utilisés qui sont très simples : le défilement illimité qui empêche d'avoir une chronologie du temps passé (une pagination est une cassure qui nous réveille), les contenus joués automatiquement, les propositions de contenus en boucle, etc. Rien qu'un effort restreignant l'usage de ces mécaniques permettrait de réapprendre, voire d'apprendre, à lever le nez. Si personnellement je devais plaider pour une mesure radicale, ce serait un couvre feu de notifications de service en ligne (sauf essentiels - les médias sociaux ne le sont pas). Et pas que notifications "gling gling" du portable j'entend, mais bien : plus aucune indication de nouveau contenu (les bulles à chiffre, etc).

Cela peut sembler idiot, mais lorsque la demande d'effort s'inverse, on déconnecte plus vite. Et ce, grâce à une autre mécanique de l'esprit humain : la flemme. Quand on vous sert en permanence des choses sous le nez, vous ne faites aucun effort et consommez passivement. Voire même devenez exigeant. Quand on vous demande de lever votre cul pour aller chercher, d'un coup il y a réflexion, voire résignation.

Le 30/03/2024 à 09h 30

Pour l'histoire de la quantité de données, je l'invite à l'expérimenter en souscrivant à une offre Home 4G ayant 200GB de quota par mois. Mon constat sur mon usage que j'ai du restreindre à mort à cause de ce forfait que j'ai eu le temps que ma nouvelle résidence soit reliée en FTTH (et heureusement que les normes actuellement font que c'est une obligation de base, et donc le délai est raccourci, mais j'ai eu un battement de trois mois quand même). Il va être similaire à celui que vous faites dans cet édito.

Oubliez le télétravail : visioconf à gogo, ça vous défonce le quota en un rien de temps. 15GB en une journée. Je ne faisais qu'une journée de TT par jour, donc imaginez que sur 3, voire 4 jours par mois, j'avais 60GB de mon quota pris pour ça. Et j'ai aussi du attendre le lendemain d'être sur site pour récupérer le livrable de mise à jour d'un éditeur de progiciel. J'allais pas cramer 3GB comme ça.

Oubliez le travail : nombre des activités professionnelles intellectuelles sont basées sur l'usage d'une connexion à un serveur distance (solution SaaS ou on-premise, peu importe). Beaucoup d'échange de données, ça compte vite.

Oubliez les jeux vidéo : le moindre jeu fait 10 à 20GB de données à télécharger, quand ce n'est pas une cinquantaine voire une centaine pour les plus gros.

Complément : oubliez les jeux vidéo WC sur smartphone. On ne s'en rend pas beaucoup compte, mais ils consomment pas mal de données surtout avec leurs mise à jour très régulières. Perso je n'ai que Final Fantasy Brave Exvius en passe-temps dessus, chaque semaine il prendra 500MB minimum pour ses nouveaux contenus.

Oubliez les mises à jour de l'OS de votre ordinateur, peu importe la religion derrière. Un batch de mise à jour Manjaro lorsqu'il y a un gros lot, c'est 3GB de packages à récupérer. Multiplié par le nombre de machines, on fait les comptes. Me concernant : 1 PC fixe, 1 HTPC, 1 PC portable et un second à usage pro. Mettre à jour ces 4 machines "coûterait" 12GB en une session. J'ai pas envie de faire un cache local, pas que ça à foutre ni à gérer. Je n'ai aucune idée de combien le Windows 11 de ma machine de jeux a eu besoin, mais à mon avis il ne fut pas neutre dans cette histoire non plus.

Oubliez le Web : en dehors de marginaux dans mon genre qui essayent de réduire le poids des pages web qu'ils produisent (450kB pour la homepage de mon blog, 140 pour un article - 8MB pour la page de cet article de Next #balleperdue), ce gros cul bouffe des dizaines de MB pour la moindre page affichée. Et avec les sites qui font de l'auto-refresh caché, ça défile. J'ai vu les compteurs car on les a sur une offre home 4G. En une heure, mon navigateur consommait 1GB. Oui, j'ai trente mille onglets ouverts et mon usage n'est pas représentatif. Mais réfléchissez-y, les sites web qu'on consulte passent leur temps à récupérer des données sans rien nous demander puisqu'ils sont dans le paradigme de l'abreuvage passif du client.

Oubliez les activités créatives : J'ai du limiter mes petits développements personnels au strict minimum (car un pip install ça pompe aussi, heureusement qu'il cache sur le PC lui d'ailleurs pour la réutilisation!), je n'ai pas pu mettre à jour mes modèles d'IA générative pour bosser avec Stable Diffusion (pas trop un souci car ceux que j’avais ce moment-là étaient bons, mais je voulais profiter des améliorations de Turbo). Et fort heureusement je ne travaille que de l'ebook donc des fichiers qui vont pas au delà de 2MB (dont 1.5 pour l'image de couverture). Mais une session de recherche pour trouver de l'inspiration, des images pour un décor, se documenter sur certains aspects, etc. Bah ça pompe (cf le point sur le Web - que ce soit OSM ou Google Maps, ça tûte). Et bien entendu, je vous laisse imaginer ma capacité à upload un batch de photos en RAW et même développées sur mon kDrive : impossible sans cramer une grosse partie.

Imaginez ensuite l'impact pour les personnes se lançant dans le streaming en ligne : une telle restriction interdirait de facto cette activité.

Oubliez les médias en ligne : Bah oui, tout le monde bouffe du Youtube et de la série TV à ne plus savoir qu'en faire. Perso j'en consomme très peu, un épisode de ma série du moment par jour. moins de 1GB en général.

Ah, au fait, l'upload aussi ça bouffe de la donnée. Et on envoie plus qu'on ne l'imagine entre les requêtes en ligne et l'espionnage massif des smartphones (et probablement de Windows) qui envoient des tonnes de données à Google. Sans parler des upload automatiques des Cloud de ces services, des appels en visio, des MMS, etc.

Verdict : en deux mois, j'ai pu voir ce que je consommais avec ces usages restreints que j'ai du mesurer. 400GB. J'avais gardé en réserve deux abonnements mobile (mon perso et mon pro) pour cramer de la donnée dessus pour des téléchargements lourds type mise à jour de jeu, etc. En moyenne sur le forfait home 4G, j'étais à 10GB par jour en me restreignant sachant que j'en suis utilisateur exclusif (j'ai évité de filer le Wi-Fi aux amis de passage justement en leur disant pourquoi...). Alors imaginez maintenant pour une famille moyenne.

Donc à la question : "a-t-on autant besoin d'Internet ?" et la question sur une limitation quotidienne, je répondrai : oui sans quoi nombre d'activités sociales et professionnelles se verraient supprimées avec la casse qui va avec.

Enfin, j'ajouterai également un point sur la volonté de limiter un usage quotidien : la violence psychologique d'une telle mesure pour nombre de personnes. Perso, j'ai connu l'époque des forfaits limités en heures dont le dépassement coûtait une couille (ou un ovaire, comme vous préférez). Tout ce que ça engendre, c'est de la frustration. Je doute sincèrement que vivre frustré soit quelque chose de sain dans le temps.

Deuxièmement, une part non négligeable (question de point de vue) de la population française se doit déjà de compter des usages à la virgule près pour ne pas finir dans le rouge, ou pour l'être le moins possible à la fin du mois. Ajoutez encore de la pression en ce sens (car je rappelle que l'usage d'Internet reste indispensable, et même obligatoire pour les rapports avec l'administration française et nombre d'entités), et j'ai des doutes que le résultat soit productif. Personnellement, je n'ai pas de soucis financier qui me contraignent à ce genre de mécanique et restriction. Mais j'ai aussi connu une période pendant trois ans où je vivais avec 400€/mois.

Donc bon, si toute idée est bonne à prendre, il est aussi nécessaire de savoir prendre du recul dessus et de l'évaluer. La méthode des "5 pourquoi" et le canard en plastique, ça marche très bien pour se rendre rapidement compte si une proposition est viable ou non et ce sont des mécaniques psychologiques de base.

Le 29/03/2024 à 20h 15

À chaque Go consommé, un chaton meurt
Efface toute sa librairie Steam et relance le téléchargement.

Ceci était un message du CCC, le Comité Contre les Chats.

Le 30/03/2024 à 15h 56

Quand on voit l'historique de Zuckerberg avec la création originale de Facebook, je me demande s'il a vraiment eu une conscience un jour.

Le 29/03/2024 à 12h 51

Le masquage de l'IP n'a jamais été, de mon point de vue, un gage de protection de la vie privée contrairement à ce que les vendeurs de VPN disent.
Alors je parlais de vie privée par rapport aux logs de connexion, pas par rapport au site sur lequel tu navigues (où effectivement le calcul d'empreinte est sacrément efficace, et pour ceux qui ne connaissent pas, je recommande le site Am I unique pour un petit test ;))

Après, c'était plus pour répondre que Wireguard est différent, avec des avantages et des inconvénients par rapport aux solutions existantes, car on a l'impression en lisant certains, que wireguard est le saint graal (comme systemd, wayland, btrfs, pulseaudio et j'en passe ^^) et que ne pas l'utiliser est une hérésie méritant lapidation et buché !

Excellent cet utilitaire !

Le 29/03/2024 à 09h 07

C'est oublier que Wireguard nécessite l'installation d'un logiciel sur chaque appareil (en plus du serveur bien sur), là où d'autres VPN, comme OpenVPN, peuvent offrir des solutions basées sur des protocoles standardisés et plus ou moins inclus de base dans les OS (donc sans installation supplémentaire).

Wireguard s'intègre profondément dans le système (installation de drivers spécifiques). Par exemple, sur mon NAS synology, je ne peux pas l'installer sans faire des trucs hyper compliqués, car il n'est pas supporté par le noyau.

De plus, beaucoup cherche un VPN pour les aspects sécurités et vie privée. S'il n'y a rien à redire jusqu'à présent niveau sécurité, Wireguard ne peut pas agir comme un no-logs VPN (pour des raisons techniques, l'IP est utilisée en interne), car les traces de l'IP sont conservées bien au delà de la durée de vie de la connexion.

De plus, beaucoup cherche un VPN pour les aspects sécurités et vie privée. S'il n'y a rien à redire jusqu'à présent niveau sécurité, Wireguard ne peut pas agir comme un no-logs VPN (pour des raisons techniques, l'IP est utilisée en interne), car les traces de l'IP sont conservées bien au delà de la durée de vie de la connexion.
Le masquage de l'IP n'a jamais été, de mon point de vue, un gage de protection de la vie privée contrairement à ce que les vendeurs de VPN disent. Les attaques contre la vie privée se font avant tout par fingerprinting du navigateur, l'IP v4 étant partagée elle n'a plus aucune signification ou alors très vague. Et ça, un VPN n'y peut rien à ma connaissance en dehors de filtrer les scripts et URL malicieuses comme un bloqueur de contenu ferait.

Depuis que j'ai récupéré une FTTH, je suis actuellement identifié à Calais. Pas de bol, j'habite bien plus loin, mais bon, OK, c'est la même région. Quand j'étais en box 4G pendant plusieurs mois, je me suis baladé dans toute la France d'un point de vue IP et je me suis tapé à peu près systématiquement les CAPTCHA anti bots en raison des IP partagées sur le réseau mobile. Car mon navigateur efface les cookies/caches/sessions à chaque fin de session sur un site (quand le dernier onglet est fermé), sauf exceptions.

Perso la question que je pose souvent quand on me dit qu'un VPN protège la vie privée c'est : pourquoi un site sur lequel je suis identifié continue de m'identifier lorsque le VPN est actif ? S'il protégeait ma vie privée, la session aurait sauté car considérée comme différente. Là non, on est tout autant traqué car c'est le client qui est scanné, par sa connexion.

Le 28/03/2024 à 07h 32

« Le VPN public de FDN vous permet seulement de retrouver du réseau propre derrière une connexion potentiellement sale ou bridée » explique l'association.
C'est quoi une connexion potentiellement sale ? Pas de masque FFP2 sur la borne Wi-Fi pour protéger des ondes infectées ? Le RJ45 a traîné par terre ?

Le 28/03/2024 à 07h 34

shocked-pikachu.png

Le 27/03/2024 à 07h 37

Reste à voir si 73 millions d’euros sur six ans seront suffisants.
Bah vu qu'une des thématiques est d'être frugal, autant être cohérent de bout en bout.

Après je pense qu'il faut aussi se rappeler que nous ne sommes pas autant dans la démesure que des entreprises qui peuvent y investir des milliards pour espérer une rentabilité sur dix ans. Au même titre que le Cloud qui a été un investissement fort, la rentabilité a mis longtemps à arriver (GCP l'est à peine par exemple car plus récent que AWS ou Azure).

Le 26/03/2024 à 07h 39

Par exemple, un poste en particulier ou un serveur faisant tourner des services et applications qui ne seraient plus disponibles sur des versions ultérieures du système. Deux années supplémentaires peuvent faire la différence.
Dans le cas d'un Linux, j'ai des doutes que ce soit la plus grande motivation. De mon expérience, c'est plutôt pour éviter les compatibilités cassantes de librairies / middlewares qui évoluent avec un cycle rapide sur les branches en support court contrairement au cycle long avec bugfix et security pour les LTS. Aussi pour avoir un Kernel à support étendu qui n'intègre pas de breaking changes.

Au delà de ça, j'ai très rarement vu de produit requérant une version spécifique d'une distribution Linux. Plutôt du hardware ou par exemple mon micro serveur HP avait son RAID matériel non fonctionnel sur Debian là où Ubuntu était supportée (question de pilotes qui n'étaient pas dispo sur la première je suppose, j'ai pas cherché plus loin à l'époque).

Les éditeurs fonctionnent plutôt à coup de matrice de compatibilité indiquant la liste des distribs qu'ils considèrent comme supportés (en gros : ça démarre dessus). L'autre travers est aussi de fournir du package uniquement pour certaine distrib, type installeur deb ou rpm, mais ça c'est devenu rare je trouve avec la containerisation.

Un cas par contre plus concret : la compatibilité avec les Cloud providers. De base la question ne se pose pas pour une VM classique, mais si on veut utiliser les outils du CSP pour du monitoring avancé ou de l'analyse de charge, toutes les distribs ne sont pas supportées par ces derniers.

Le 25/03/2024 à 17h 38

Soupçons sur les avantages des services de Google dans son moteur de recherche
Ils peuvent ajouter à cela les messages anxiogènes et sabotages de GUI quand on utilise(-ait ?) les services Google avec un autre navigateur que Chrome. Vivaldi a du basculer sur le user-agent de Chrome à cause de ça et miraculeusement tout était résolu.

Le 25/03/2024 à 17h 35

"Européen"

Le 25/03/2024 à 13h 40

Pour le Vieux continent, cette enchère dans les bannissements pourrait représenter un problème croissant. La Chine est son usine pour de nombreux produits, tandis qu’une majeure partie des technologies informatiques utilisées viennent des États-Unis. Prise entre deux feux et par le biais des pressions politiques, l’Europe pourrait être incitée à choisir son camp.
Pourtant c'est pas faute d'avoir des cloud providers en Europe qui sont très bons. Il suffit de retirer ses œillères.

Quand on veut on peut. Perso je dépend assez peu des entreprises de la tech US dans mes usages personnels quotidiens. Hélas en contexte entreprise, c'est tout l'inverse où l'on préfère même abandonner l'usage des hébergeurs européens... De mon point de vue, c'est une catastrophe en matière de stratégie.

Pour le hardware, c'est une autre histoire mais ce n'est qu'une question d'investissement là aussi. Il ne manque que la prise d conscience et la volonté, à nouveau.

Le 25/03/2024 à 08h 18

Ce produit traîne tellement de casseroles en matière de pratiques discutables que je n'arrive pas à comprendre sa réputation.

Le 25/03/2024 à 08h 10

Eugene Volokh, professeur de droit à l'U.C.L.A. et auteur d'ouvrages sur l'intelligence artificielle et le droit, a d'ores et déjà dénombré, au niveau national, « au moins 15 affaires » dans lesquelles des avocats ou des parties se représentant elles-mêmes auraient utilisé des chatbots pour effectuer des recherches juridiques transmises au tribunal.
Après le "Vu à la Télé", gage de qualité, désormais le "Vu sur Internet", gage de vérité.

Décidément, le temps ne fait toujours rien à l'affaire.

Le 24/03/2024 à 09h 30

Ou alors une ref de vieux.

Le 23/03/2024 à 21h 04

Quant à la dernière, comme je dis toujours, il vaut mieux une petite efficace et agile qui saura se faufiler partout qu'une grosse lourde et pataude avec laquelle on ose pas s'engager.
De voiture, n'est-ce pas ?

Mais bien entendu, à quoi pensiez-vous donc ?

1:57 pour les personnes qui n'auraient pas la ref

Le 23/03/2024 à 14h 09

Même pas un petit monolithe pour aider Apple à évoluer ?

Pour la succession de Macron, vu ce qui se dessine pour le moment, je dois avouer être à la fois inquiet et curieux. Inquiet car on accélère vers le mur, pour changer, et curieux car je me demande comment réagira une politique qui a toujours consisté à s'opposer bêtement et faire la girouette et qui deviendra soudainement responsable de tous les maux de la France depuis l'époque d'Apple.

Quant à la dernière, comme je dis toujours, il vaut mieux une petite efficace et agile qui saura se faufiler partout qu'une grosse lourde et pataude avec laquelle on ose pas s'engager.

Le 22/03/2024 à 07h 40

Les projets vont de l'assistance à l'exploration de la documentation technique de la DSI à un système d'anticipation des repas des cantines des lycées en passant par un assistant pour que les usagers s'y retrouvent dans les aides régionales.
Ce sont les cas d'usage courants en matière d'expérimentation dans le domaine. Le premier s'appelle le RAG, pour Retrieval-Augmented Generation, une méthode pour laquelle le modèle d'IA exploite des sources externes pour produire son résultat. Un exemple visible sur le Web est la recherche que Bing propose avec GPT 4 ou encore le mode Web de ChatGPT Premium.

Le 22/03/2024 à 07h 35

Comparé aux services en ligne qui surveillent en temps réel des milliards de personnes, en effet.

Le 22/03/2024 à 07h 33

Ah les outils de chiffrement de disque et antivirus qui cherchent à nous rappeler avec nostalgie (ou pas) les HDD 5400rpm.

Mais faut voir ça comme une sécurité en plus : le poste étant inutilisable, les malwares se fatigueront avant d'attaquer :yes:

Le 21/03/2024 à 18h 32

Lit le titre

Pense spontanément : forma...

Lit le sous titre

:craint:

Le 21/03/2024 à 18h 30

Pour le coup, les LLMs sont très utiles quand bien utilisés !
C'est comme une fourchette utilisée pour couper la nourriture : souvent ça marche, mais c'est pas prévu pour ça. À l'utilisateur de l'utiliser intelligemment.

Je confirme, bien utilisé un LLM est un très bon assistant d'écriture. Typiquement, pour reprendre la blague du style ancien des écrits utilisés pour l’entraînement, le modèle peut aider dans le cas où un personnage serait censé s'exprimer comme à telle époque, ou même d'une façon particulière.

De même, il peut aussi aider à revoir la tournure de phrases ou la cohérence d'un écrit.

Par contre, faut pas lui demander d'écrire à sa place. Même si le LLM en est capable, ça n'a aucun intérêt en dehors de produire un texte ennuyeux à mourir. Perso, je ne ressens rien à la lecture d'un texte généré par GPT ou Mixtral ou Large. L'écrit est capable de faire passer des sentiments, et on peut distinguer ceux de la personne qui l'a rédigé. Un texte généré par IA n'est qu'une suite statistique, parfaite du point de vue sémantique, mais ennuyeuse et sans émotion. C'est lisse, plat, et ça cherche même à en faire des caisses.

Le 21/03/2024 à 17h 47

J'aurais comparé à un moment avec VSCode (car quitte à enrichir Notepad, autant passer sur le framework Monaco et basta) mais lui-même ne fait pas de vérif ortho par défaut.

Le 21/03/2024 à 07h 37

Dans le cadre du DMCA, ne serait-ce pas plutôt l'organisme Common Crawl qu'il faudrait attaquer ? Dans la mesure où les dataset sont basés dessus (dont ceux utilisés par OpenAI), ça supprimerait le problème à la source.