votre avatar Abonné

haelty

est avec nous depuis le 6 octobre 2017 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

281 commentaires

Ferris the crab, unofficial mascot for Rust

Le 12/03/2024 à 17h 47

Je n'ai pas de problème "viscéral", à vrai dire je m'en cogne de qui baise qui et de quel sexe chez lui. Ce qui me pose problème c'est vraiment le prosélytisme croissant et mal inspiré de certains dans cette communauté dont le don du sang, devant lequel ils se dégonflent après en avoir réclamé le droit et que l'EFS consente même à violer la langue pour les rameuter, n'est pas le principal problème hélas...

Je dirais que ça a démarré avec la gay-pride: Franchement, qui a envie en croisant cela dans Paris avec ses gosses de leur expliquer pourquoi 2 mecs/nanas se paluchent, ou ce que la grande folle en talons cambrée comme la vache qu'on amène au taureau a logé dans le fion?

Et ça c'était avant qu'ils ne demandent la PMA (le M c'est pour médical, rappelons le) pour toutes (sans logique vs des préférences sexuelles rendant l'affaire normalement impossible) en attendant la mère porteuse pour tous, par souçi d'égalité...

Il y a un moment ou cela pose en effet un problème qui peut devenir viscéral, mais merci de ne pas confondre cause et conséquence.

C'est triste de s'attendre à ce que tes gosses ne te demandent rien de plus compliqué que d'expliquer pourquoi 2 personnes peuvent s'aimer quelque soit leur genre.

J'ose espérer qu'ils peuvent s'exprimer suffisamment librement que pour pouvoir te poser des questions hautement plus intimes que ça sans avoir à sentir qu'il y a un problème parce que ça dérange papa ou maman.

Le 11/03/2024 à 12h 19

Ce qui ressortait de cette affaire au delà du problème d'écrire en français, c'est que les minorités concernées qui ont fait des pieds et des mains des décennies pour pouvoir donner, amenant sans doute à ces point-débiles-pseudo-inclusifs dans les com de l'EFS, sont plus fortiches pour réclamer des droits que pour les devoirs qui en résultent.
In-fine, comme ils ne viennent pas, l'EFS ne pouvait pas se permettre d'irriter ceux qui viennent pour quelques fio:censored: qui aiment visiblement plus râler que les piqures!
Et de ré-écrire en français lisible et même prononçable...
:bravo:

"In-fine, comme ils ne viennent pas, l'EFS ne pouvait pas se permettre d'irriter ceux qui viennent pour quelques fio:censored:"

Ha mais tu réussis vraiment bien à montrer que le problème que tu as avec cette comm' se situe au niveau de la langue française et pas un problème viscéral contre ces personnes :stress:

Le 06/03/2024 à 10h 40

Du coup, que penses tu de ce petit programme de monitoring des fréquences CPU en C, écrit le nez au vent sans notes, juste avec le schéma de données en tête ? :D

https://github.com/TNZfr/watchfreq

Edit : Eh bé ... 22 clones du dépôt en 5 heures. :)

Ce projet est vraiment sensé pouvoir démontrer quelque chose ?
Il ne démontre aucune compréhension spécifique de l'architecture d'un ordinateur. Faire des malloc, utiliser le keyword "register" ou savoir comment récupérer les fréquence du CPU via sysfs ça n'est pas de la compréhension du fonctionnement d'un ordinateur. Tu sais coder en C et utiliser certaines API du système Linux.

La remarque de Stéphane sur le fait d'être un Dieu s'attache plutôt à critiquer la remarque qui était que si tu sais comment l'ordinateur fonctionne, alors il est à ta charge de gérer l'intégrité de la mémoire et que, au final, c'est facile de ne jamais faire de bourde puisque tu sais comment ça fonctionne.

Tu es inhumain si tu es capable de guarantir que tu ne commetras aucune erreur de distraction qui aboutiront à des problèmes de mémoire si tu n'as pas l'assitance d'outils (et il en existe en C aussi).
Là aussi ton projet ne démontre rien, sa complexité est trop basse pour prouver que tu as cette qualité qu'on trouve inhumaine ;)

Le 06/03/2024 à 10h 13

On peut aussi juste respecter la langue francaise, qui est déjà adaptée pour inclure TOUT LE MONDE, sans faire d'exception (contrairement à l'écriture inclusive excluante) et qui est parfaitement lisible, au lieu de tout faire pour la détruire connement.

«[La] langue française n’est point fixée et ne se fixera point. Une langue ne se fixe pas. L’esprit humain est toujours en marche, ou, si l’on veut, en mouvement, et les langues avec lui. Les choses sont ainsi. […] Toute époque a ses idées propres, il faut qu’elle ait aussi les mots propres à ces idées. Les langues sont comme la mer : elles oscillent sans cesse. À certains temps, elles quittent un rivage du monde de la pensée et en envahissent un autre. Tout ce que leur flot déserte ainsi sèche et s’efface du sol. C’est de cette façon que des idées s’éteignent, que des mots s’en vont. Il en est des idiomes humains comme de tout. Chaque siècle y apporte et en emporte quelque chose. Qu’y faire ? cela est fatal. C’est donc en vain que l’on voudrait pétrifier la mobile physionomie de notre idiome sous une forme donnée. C’est en vain que nos Josué littéraires crient à la langue de s’arrêter; les langues ni le soleil ne s’arrêtent plus. Le jour où elles se fixent, c’est qu’elles meurent.»

Victor Hugo


Mais tu considères aussi qu'un bon dev est un dev qui ne fait jamais d'erreur malgré le fait d'être un humain. Ca ne doit pas te sembler impossible d'arrêter le soleil non plus :mrgreen:

Le 05/03/2024 à 16h 56

Les personnes trop sûres d'elles au point d'être persuadées de faire un travail toujours proche de la perfection (s'ils ne la dépassent pas), c'est dans tous les domaines, pas spécifique au développment :)

Et les bugs sur le terrain, c'est toujours de la faute de leurs clients, rayonnements cosmiques, ou parce que le système n'est pas configuré comme chez eux, n'est-ce pas ?

Rust pour le coup serait un très bon langage pour ces personnes-là en leur forçant à réexaminer le code que le compilateur refusera et de voir où les possibilité de condition de course ou d'aliasing interviennent, ce leur serait d'un grand apprentissage. Mais malheureusement leur ego, qui n'a d'égale que leur sentiment d'excellence, ne leur permet pas ce genre de remise en question.

Si tu es dans cette catégorie, je te souhaite de courage pour gérer les bugs sur le field. Mais je sais, ça ne doit jamais t'arriver ;)

Le 05/03/2024 à 16h 51

Je ne supporte pas cette écriture aussi débile qu'imprononçable... Ce qui est dingue, c'est que même l'EFS s'y était mis une fois aux appels au don du sang. Apparemment, ça avait été la douche pour en avoir parlé au médecin par lequel on passe avant: Au mieux les gens venaient et demandaient quelle mouche les avait piqué au pire ils ne venaient pas. Le plus cocasse étant que ceux a qui cela s'adressait et qui a qui il était enfin permis de donner sans devoir mentir ne venaient pas plus: Ça demande des "droits" mais quand il s'agit de donner de sa personne pour les exercer y'a plus personne.

Depuis l'EFS écrit de nouveau en français. Un bilan qui vaut sans doute bien des sondages.

Donc tu penses réellement que l'EFS permet à des homosexuels de donner du sang dans l'unique but d'être inclusif et de suivre une mode ?

Je ne supporte pas ta façon de raisonner mais pourtant je considère que tu as le droit de t'exprimer. Tu ne me portes pas irrespect comme le commentaire plus haut ne te porte atteinte en aucune manière.

Le 04/03/2024 à 16h 30

"Les devs que je connais sont humain·es..."

Va falloir inventer le langage de programmation inclusif, piquant les yeux à l'écrit et imprononçable à l'oral, imposant d'oublier "l'accord" qui ferait écrire "developpeur-euse" sonnant trop "develop-peureuse" et bouclerait la boucle de l'inclusif au stigmatisant!

Bon, sur le fond du problème on en revient à des préoccupations très typiques des USA: Liability menant au Foolproof (littéralement: "A l'épreuve des cons"), par conception et/ou parades/avertissements.

Les conséquences chez eux allant du "Objects in the mirror are smaller than they appear" (sans déconner!) gravé sur les rétros de bagnole à des matériels conçus pour presque tout pardonner niveau erreurs de l'utilisateur. Quand c'est trop difficile voir impossible (aviation...), cela peut mener à la faillite des constructeurs sur un seul évènement. Y'a bien que le sacro-saint flingue qui chez eux échappe au concept.

Va falloir boire ta camomille :kimouss:

Le 04/03/2024 à 16h 22

Parce qu'il n'y a pas que les dévs qui font du développement. Il y a aussi énormément de pisseurs de code (très probablement bien pus nombreux que les dévs).

Tu as oublié les devs trop sûr d'eux qui pensent que les bugs de mémoire ne sont introduits que par des pisseurs de code :mad2:

C'est l'humain le soucis et c'est l'idée de se baser sur la capacité d'un dev à ne pas commettre d'erreur qui est une erreur.

wikipedia

Le 23/02/2024 à 16h 10

Ok, continue de faire totalement abstraction de ce que j'ai dit, et du contexte de la discussion. C'est puéril, et stéril (peu importe l'organe).

C'est le Pinailleur pinaillé ! :smack:

Le 23/02/2024 à 16h 03

Oui on est d'accord. Je dis juste que le sexe n'est pas le sujet ici.

Sorry, je ne voulais pas te citer spécifiquement, je voulais poster ça de manière générale sur la conversation. Mais je ne vois pas comment faire ça depuis le nouveau design du site ^^

Le 23/02/2024 à 15h 27

Ce que tu as entre les jambes n'a rien à voir avec ton genre.

Ha, des discussions stériles où personne ne prend la peine de s'aligner sur les termes utilisés c'est tellement agréable à suivre...
Peut-être que vous entre-apercevriez que vous êtes plutôt d'accord entre vous quand vous aurez compris qu'il ne s'agit pas d'un problème rhétorique sur le sens donné à tel ou tel mot.

Savoir s'aligner sur la forme pour discuter du fond quoi...

Un écran invitant à interroger ChatGPT

Le 23/02/2024 à 10h 28

C'est s'adapter à son environnement avec un but. C'est de l'intelligence. C'est pas de la conscience, c'est assez basique, mais c'est de l'intelligence. Comme un chat, comme ChatGPT.

J'ai pas fait mes "petites recherches" j'ai fait mes grandes recherches et je comprends très bien le fonctionnement des transformers, et des modèles de diffusion. Notre désaccord n'est pas technique, il est philosophique.

Je comprend du coup que tu veux jouer sur le sens donné à l'intelligence. Tu réagis quand même à un commentaire qui indique juste que pour l'instant on survend un peu trop chatGPT et beaucoup de gens se pignolent justement sur l'intelligence de chatGPT et l'utilise en ne prenant pas la mesure de ce qu'il est capable de faire. Parce que justement, l'intelligence que tu peux y voir n'est pas intrinsèque à chatGPT, elle est émergente. Tout comme l'adaptation des espèce est émergente du processus de mutation génétique, ce processus n'est en aucun cas intelligent ni même n'a l'adaptation comme but, ce processus existe tout simplement et a permis de soutenir une évolution des espèces. Ca reste un processus émergent. C'est toute la beauté d'arriver à des systèmes complexes basés sur des briques toute simples.

On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.

En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.

En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)

Le 22/02/2024 à 14h 27

Ha oui bien sûr où avais-je la tête.

Je suppose que les humains ne fonctionnent pas par association d'idée et qu'à chaque fois qu'on nous présente une multiplication on refait la démonstration fondamentale de la multiplication dans notre esprit.

Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde, par contre une machine qui peut faire une dissertation meilleure que 50% des lycéens non c'est pas intelligent, tiens on va plutôt la comparer à un philosophe professionnel comme Raphaël Enthoven. Perso j'aurais trouvé ça plus drôle si au dernier moment on avait demandé à Enthoven et à l'IA de la faire en Coréen la dissertation.

Je suis sûr que quelque part dans la jungle il y a un chimpanzé avec un égo un peu plus boursouflé que les autres, qui est convaincu que son espèce est supérieure et que si les humains ont conquis le monde c'est de la triche car ils utilisent des outils.

Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde


Ha ?

Je pensais que l'orientation des feuilles se faisait via phototropisme: https://fr.wikipedia.org/wiki/Phototropisme

Rien d'intelligent là-dedans, c'est simplement de la physique/biologie ;)
Mais comme pour beaucoup de choses, l'anthropomorphisme nous pousse à imaginer une intelligence là où il n'y en a pas. Il "suffit" généralement de garder l'esprit critique et de faire ses petites recherches pour voir si des scientifiques ont déjà fait des études à ce sujet.

Je vous invite à lire sur les transformers (on parle de réseau de neurones, pas d'Optimus Prime ;) ) et le fonctionnement de GPT pour comprendre un peu plus et éviter de lui accorder trop de capacité.

Le 22/02/2024 à 14h 19

Une IA ne sait peut-être pas ce qu'elle dit, mais si elle est préparée pour, elle peut résoudre des problèmes mathématiques aussi bien que les meilleurs lycéens : AlphaGeometry, un champion des mathématiques, sur Numérama

Pour le moment c'est niveau Lycée, mais vu la vitesse d'évolution des IA dans quelques années il y aura probablement des théories scientifiques et/ou des démonstrations mathématiques découverte par IA.

Attention aux nuances. Les LLM ne résolvent pas des problèmes mathématiques. Même pire, ils n'essayent même pas de répondre à vos questions. Ils génèrent du texte qui collent au modèle qu'ils ont construit suite à leur entrainement. La suite logique d'un texte représentant une question est de fournir une réponse, qu'elle soit correcte ou non. Les LLM n'ont pas de notion de logique, ni de raisonnement.

D'ailleurs, il sera tout aussi simple pour chatGPT de répondre à votre demande quelque soit sa complexité. Le modèle sort de manière déterministe un set de tokens probables pour continuer la conversation (l'aléatoire provient d'un choix arbitraire de ne pas forcément sélectionner le token le plus probable selon le modèle) et en un temps constant que le texte précédant représente des concepts simples ou ultra complexes.

L'une des voies observées sur chatGPT est de laisser la possibilité au LLM de se servir de plugins pour demander des informations à des systèmes qui savent résoudre des problèmes mathématiques par exemple. Cela s'exprime généralement par le fait que l'IA écrive du code python qui est ensuite exécuté pour produire un résultat plus stable que de laisser le modèle générer une réponse plausible et du coup complètement fausse quand on s'attend à un résultat mathématique précis. C'est devenu vachement plus utilisable depuis mais ça n'empêche pas de garder un oeil critique sur le texte produit et de connaitre les limites du systèmes.

Je rejoins le commentaire sur le fait que la presse n'aide pas leurs lecteurs à relativiser sur le message commercial d'openAI, Google, Microsoft et autres. On persiste à présenter les "hallucinations" comme des bugs qui doivent être résolus sans même indiquer que ça fait partie intégrante des systèmes à LLM.

Et on finit par avoir des gens qui utilisent ces solutions en fermant les yeux, comme récemment ces avocats aux US qui reprennent tel quel ce que leur dit chatGPT pour préparer leur plaidoirie et citer des dossiers qui n'existent même pas. (https://www.reuters.com/legal/transactional/another-ny-lawyer-faces-discipline-after-ai-chatbot-invented-case-citation-2024-01-30/)

Le 19/02/2024 à 17h 43

Bah non, si Flock n'avait pas fait une non-faute, je n'aurais rien dit. :D

D'où le "aussi" :P

Le 19/02/2024 à 15h 22

Désolé, je pensais que tu savais lire ou faire un Ctrl F (2e occurence du mot "milliard"). Voici le passage en question :

5. Nombres inférieurs à 2 : accord
Un nom précédé d’une indication chiffrée inférieure à 2 (avec virgule) reste au singulier. On écrit donc : 1,5 milliard ; 1,9 milliard, ce qui, d’ailleurs, se lira plutôt : un milliard et demi et un milliard neuf cents millions ou un milliard virgule neuf.

Donc j'admets mon erreur, on m'a mal appris quand j'étais enfant, et je n'ai pas pris la peine de vérifier si elle était juste. Et effectivement si j'avais sourcé, je m'en serais aperçu avant de poster ! Errare humanum est.

Merci Flock d'avoir fait de moi une meilleure personne :8

Tu pourrais remercier fred42 aussi ;)

un métro londonien en station

Le 19/02/2024 à 14h 58

La voie prise est de réutiliser l'infrastructure de capture vidéo déjà en place et de profiter de l'avancée sur l'IA en matière de reconnaissance pour justement pouvoir gérer toutes ces fluctuations.


L'infra peut rester commune, c'est parfait pour ça. Non le soucis est bien dans la conception de la caméra elle-même dont le capteur est conçu pour un usage précis produire des images pour générer un flux vidéo.

Un second capteur dédié à l'analyse m'apparait bien plus pertinent pour traiter et mettre à disposition d'un logiciel d'autres types d'informations (spectrales, doppler, ..).

Dans ce cas, de plus, cela permettrait de répartir la charge global du calcul de l'analyse sur tous les équipement sources et ainsi d'éviter d'avoir à recourir à de l'infra dédiées par exemple (note que c'est déjà le cas pour certains fabricants qui propose une ouverture de leur produit vers des solutions type plugin embraqué sur l'analyse d'image).
Le fait de ne pas pouvoir distinguer un vélo non-pliable d'un pliable n'est pas une preuve que le système ne peut pas fonctionner. Juste que le modèle de l'IA n'a pas été entraîné pour ça encore.


Ce n'est pas un problème d'IA mais bien d'image source qui n'est pas souvent appropriée à ce type d'analyse et de scenarios attendus. Exemple, dans le cadre d'une solution de comptage du type A->B B<-A.

Le meilleur résultat sera sans doute de positionner une caméra qui perpendiculaire au sol, de tracé une ou deux lignes virtuelles (ie: avec zone blanche de discrimination) pour délimiter les zones A et B. Il y a déjà pas mal de paramètres optique à prendre en compte (contraste, luminosité,..), puis propre au contexte d'analyse (enfants, animaux,..) et scénarios (entrée et sortie rapide, objets positionnés sur le ligne de partage de zone, etc etc). Dans tous les cas, le gout global pour ce cas d'étude sera de plusieurs milliers d'euros.
Et cela dans le but de remplacement une cellule photo électrique dont le coût est de 10-15€ avec une fiabilité supérieure (en terme de comptage on est d'accord).

Sauf qu'ici le but des analyses n'est pas de faire du comptage, on parle bien d'un besoin d'analyse sur des flux vidéos pour repérer des comportements dangereux et/ou interdits.

Forcément, oui pour faire de la détection de passage, y a plus adapté mais ce n'est pas du tout le sujet de la news ^^

Le 14/02/2024 à 09h 47

La voie prise est de réutiliser l'infrastructure de capture vidéo déjà en place et de profiter de l'avancée sur l'IA en matière de reconnaissance pour justement pouvoir gérer toutes ces fluctuations.

L'article ne laisse pas supposer que ça ne fonctionne pas. Il n'y a pas de chiffre indiquant le rapport de faux positifs ni si ça a impacté négativement le travail des agents de sécurité. On reste sur des systèmes d'alertes à destination d'opérateurs humains, les faux positifs ne sont pas un problème en soi. Au pire, les agents n'en tiendront plus compte si c'est beaucoup trop fréquent et ils bosseront "à l'ancienne".

Le fait de ne pas pouvoir distinguer un vélo non-pliable d'un pliable n'est pas une preuve que le système ne peut pas fonctionner. Juste que le modèle de l'IA n'a pas été entraîné pour ça encore.

Logo Prime Video

Le 15/02/2024 à 15h 24

Tout le concept d'Amazon Prime, c'est justement la vente liée.

Ha ?
C'est pas parce que tu fais de la vente liée pour pousser un produit que la vente liée n'est possible que parce que tu l'associes à ce produit.

C'est comme ça pour tout produit, ça n'empêche pas de pouvoir avoir un problème avec le pricing ou les techhniques de vente sans remettre en question l'utilité du produit ou son "concept". :reflechis:

Le 14/02/2024 à 09h 55

Qu'ils fassent deux abonnements bien distincts à ce moment-là, l'un concernant les achats et l'autre pour les vidéos.
Payer 18$/mois juste pour de la vidéo sous prétexte que le prix comprend les avantages Prime sur le magasin Amazon...

Flipper Zero

Le 14/02/2024 à 10h 06

J'ai testé la mienne et elle est vulnérable.

De toute façon en démontant l'un des boitiers par curiosité, j'ai vu un PIC et me suis dit que c'était surement du keeloq, avec le flipper j'en ai eu le cœur net.

Par contre, comme c'est un code tournant, à chaque ouverture/fermeture avec le FlipperZero, il fallait ensuite faire autant d'ouverture/fermeture avec la télécommande pour arriver au même code...

Donc si tu actionnes ta télécommande hors de portée du récepteur, tu te désynchronise complètement ? :stress:

Heureusement, il y a le FlipperZero pour récupérer ça ^^

brosse à dent noire accompagnée d'une tâche de même couleur

Le 12/02/2024 à 09h 49

C'est un problème bien plus global hélas causé par les vendeurs de solutions IT : faire croire aux personnes que c'est de l'informagique.

Grâce à ça, des gens croient que parce que leurs photos sont sur Google Drive, elles sont "sauvegardées", que le Cloud c'est magique ("t'as vu j'appuie et j'ai mon infra" - exposée aux 4 vents, mais ça c'est un détail), etc. OpenAI a aussi trop bullshit sur les capacités de ses produits.

Si les LLM sont puissants quand bien exploités, malheureusement trop de conneries sont dites autour. Et ce n'est pas une actualité uniquement axée sur l'aspect anxiogène du domaine qui va aider à apprendre à les appréhender intelligemment.

OpenAI qui survend chatGPT n'aide certainement pas en effet.
Ce n'est pas leur petit disclaimer en bas de page sur le fait qu'il "puisse se tromper" qui va éclairer les utilisateurs.

Sur X, harcèlement répété de la famille d’une jeune personne trans décédée

Le 16/11/2023 à 10h 00

Que connais-tu de la vie de cet enfant et de ses rapports avec ses parents ?



L’adjectif trans ne se rapporte pas d’office à la sexualité. Il s’agit du diminutif de transgenre et à ce que je sache, les enfants sont déjà confronté au fait d’avoir un genre attendu par la société. Il ne s’agit pas de jouer avec la sexualité de son enfant que de l’écouter et de ne pas le forcer à suivre un modèle qui ne lui correspond pas.



C’est étonnant de vouloir justifier des comportements connus et abjectes (la délation) en les comparant à des comportements problématiques (faire des tests sociaux sur son enfant) hypothétiques des parents. Que soutiens-tu réellement ? Il est normal de doxxer des personnes qui sont mal vu par une partie de la population qui manque totalement de compréhension et sont prête à nuire toute personne qui ne leur ressemble pas ?


Le 16/11/2023 à 09h 10

Tes exemples ne vont que dans le sens de son commentaire ;)


​​Sur TikTok, l’IA sert à faire « parler » le petit Grégory ou Estelle Mouzin

Le 16/11/2023 à 09h 26

Ça fait partie de la panoplie d’un medium de faire parler les morts.


C’est plus acceptable ? En quoi ça contredit le propos de Trooppper ?
Il serait intéressant de critiquer l’usage de l’AI remonté dans la news en usant d’argument valide et le plus objectif possible en montrant les dérives que cela peut amener et pas en requérant sans cesse à de fausses légitimités historiques ou traditionnelles.


Lutte contre les abus pédosexuels : la Commission Libe rejette la « surveillance de masse »

Le 16/11/2023 à 09h 22

Merci, j’aurai pas compris pas trop sans vous, mosieur le professeur !


OVHcloud lance sa « calculatrice carbone » pour ses clients IaaS

Le 19/09/2023 à 15h 49


bohwaz a dit:


Je pense que surtout, OVH a construit ses datacenters du nord à proximité immédiate de centrales nucléaires, donc c’est pas très dur de garantir que ça vient de là si t’es branché en direct avec EDF à la sortie de la centrale…




Non, justement, c’est impossible à garantir. Du point de vue physique, leur électricité provient tout autant de cette centrale que de toute autre centrale en Europe. En 2018, on a tous connu la même baisse de fréquence sur leur réseau européen suite à l’arrêt de la fourniture en électricité par le Kosovo. Quand on désigne un fournisseur pour un consommateur donné, on spécifie juste à qui on achète l’électricité.



Le réseau Européen est synchronisé et toutes les centrales participent à son fonctionnement de manière globale. De manière physique, la centrale EDF fournit l’énergie tout autant OVH que n’importe quel ménage dans l’Europe. Quand on dit qu’EDF fournit OVH, c’est que dans leur bilan, la consommatation d’OVH est retranchée d’une production spécifique d’EDF, c’est uniquement administratif.



Ca n’enlève pas le caractère vert de la consommation d’OVH de leur point de vue de consommateur. On ne parle pas de fournisseurs qui pourraient profiter du système actuel mais bien d’un consommateur qui s’engage à payer des sources vertes, ou du moins à être transparent sur le taux couvert par des énergies bas-carbone. Mais comme toujours, il faut trouver de quoi diminuer l’effort des autres…


Le 18/09/2023 à 06h 59

On ne peut que condisérer l’origine de sa consommation, sa consitution réelle n’est pas mesurable facilement et est plutôt constitué de l’ensemble des fournisseurs sur le réseau global. L’opposé de ton exemple (vivre sans aucune centrale fossile à 100km à la ronde) ne serait pas plus vert, l’énergie que vous consommez est constitué de l’ensemble des fournisseurs sur le réseau à hauteur de leur production. Si la production européenne est majoritairement fossile, alors votre consommation aussi, quelque soit votre localisation.



La seule solution est de vendre de l’énergie virtuelle dont le bilan total doit correspondre au bilan réel. Si le bilan est respecté, le fait d’acheter de l’énergie verte est effectivement verte. Lorsque le bilan n’est pas respecté, les déficitaires devraient racheter l’électricité aux fournisseurs excédentaires. On peut remettre en cause la mise en oeuvre de ces procédés de rachat qui peuvent ne pas pousser les fournisseurs verts à s’équiper correctement pour remplir leurs parts du contrat mais demander aux gens de payer pour l’énergie effectivement consommée (= même prix pour tout le monde, puisque l’énergie est constituée de l’ensemble des fournisseurs) ça consiste à finir dans un système sans concurrence et je ne pense pas que ça soit préférrable.


Le 17/09/2023 à 15h 14

C’est exact, et tu noteras que je ne parle pas de déplacement d’électrons mais de consommation électrique et d’énergie.



La notion de courant existe et elle emprunte déjà la route de moindre résistance. C’est le sens du début de mon commentaire ;)



J’essayais d’apporter un exemple pour expliquer que dire qu’il est inutile de vouloir avoir une consommation verte en sélectionnant un fournisseur vert parce que la centrale à côté de sa baraque n’est pas verte et que l’origine de l’énergie consommée est principalement fossile, ce n’est pas comprendre le fonctionnement du réseau électrique.


Le 15/09/2023 à 17h 43


TexMex a dit:



Plus il y a de distance à parcourir, plus il y a de perte dans un câble électrique. Donc pour résoudre ce problème le réseau s’est doté d’outils, il y a bien longtemps, pour “router” le courant. Ceci de manière à faire en sorte que les petits électrons tout gentils fassent le moins de distance possible.




Pas besoin d’outils spécialisés pour ça, ça le fait tout seul, c’est physique.



On peut discuter sur l’aspect financier et si les règles ont effectivement des failles qui permettrait à des fournisseurs d’énergie verte de ne rien produire dans les fait parce qu’il est toujours rentable de racheter le surplus de consommation à d’autres fournisseurs. Mais dans les fait et de part la structure du réseau électrique européen, il n’est pas possible de faire en sorte de payer autre chose que de l’électricité “virtuelle”.



Petit exemple, vous avez des panneaux photovoltaiques qui produisent 100kW et votre consommation totale est de 50kW. Votre consommation électrique physique (les petits électrons qui circulent sur votre réseau) n’est pas 100% alimentée par vos panneaux, elle est même très loin d’arriver à approcher du 1% (à moins d’être complètement déconnecté du réseau global). Il faut savoir que l’énergie électrique n’est pas localisée. Il y a bien des pertes sur la longueur des câbles mais la tension qui permet de mouvoir les électrons n’est pas dûe qu’à vos panneaux ni même qu’à la centrale électrique proche de chez vous. Vos panneaux sont loins de pouvoir rivaliser à ce que le réseau vous amène comme énergie potentielle.



Malgré cela, virtuellement, vous consommez à cet instant une énergie 100% verte. Dans le budget totale de ce qui est consommé et produit, on peut extraire votre consommation à 100% de votre production des panneaux. Le surplus étant disponible au réseau (normalement racheté par votre fournisseur électrique ou par l’installateur de vos panneaux qui peut à son tour s’en servir dans son budget vert).



Pourquoi ne pourriez-vous pas vous considérer comme un consommateur vert dans ce cas de figure malgré que les électrons de votre réseau bougent principalement grâce à de l’énergie fossile ?


Après la bulle des cryptos, celle de l’IA générative ?

Le 07/09/2023 à 07h 23

Plus que de compréhension, on peut parler de faculté de raisonnement.



Même si au vu de l’implémentation, on peut dire que ChatGPT n’a pas de réelle faculté de raisonnement, il est intéressant de voir à quel point il arrive à générer du texte qui donne l’impression d’être issue d’un raisonnement.



Plutôt que de se demander si ChatGPT comprend/raisonne ou non, je vois ça plutôt comme une occasion de se demander dans quelle mesure “notre” raisonnement (humain) est constitué d’un réel raisonnement intrinsèque et dans quelle mesure il est constitué d’une sorte d’intuition basée sur notre expérience (ce que les LLM reproduisent plutôt bien selon leur modèle de données).


Proton lance officiellement Pass, son gestionnaire de mots de passe

Le 29/06/2023 à 18h 28

C’est le cas chez tout le monde en fait. Le pirate (ou la police) pourra toujours t’intimider à placer ton pouce sur le lecteur d’empreinte (ou t’endormir et le placer lui-même) et déverouiller le gestionnaire. Ensuite, il n’est pas nécessaire d’ajouter une empreinte ou un code PIN, tu peux toujours exporter les mots de passe et t’identifier sur chacun de ces services et prendre leur contrôle.



Si ces services sont protégés via une 2eme facteur qui n’est pas stocké sur le gestionnaire de mot de passe, c’est différent, mais ça protège les utilisateurs de Proton Pass de la même manière. Le fait qu’il ait introduit une “backdoor” via une deuxième empreinte n’y change rien.



Si vous considérez ça comme un risque, n’activez pas le déverouillage via empreinte en premier lieu et opter pour le PIN si le fait d’avoir à entrer le mot de passe régulièrement vous rébute de trop. C’est plus difficile d’imposer par la force de renseigner un code PIN.


Le 29/06/2023 à 12h 49


Gaor a dit:



Ils n’ont pas non plus d’autofill (qui est déconseillé par Bitwarden mais qui existe à nos risques et périls, pour les raisons que l’on connaît).




C’est l’autofill au chargement d’une page qui est déconseillé: https://bitwarden.com/help/auto-fill-browser/#on-page-load



L’auto-fill que tu enclenche manuellement reste la solution la plus safe et est à privilégier par rapport au copier/coller. En copiant ton password, tu laisses le mot de passe en clair dans le presse-papier (au minimum le temps nécessaire pour le coller), qui peut alors être lu par d’autres softs et si on fait pas gaffe de désactiver la conservation d’éléments dans le presse-papiers sur certains systèmes, autant dire que les password ne sont plus si secrets que ça ^^


Accord de 100 millions de dollars entre Google et le New York Times

Le 10/05/2023 à 09h 52

Bard a de la lecture à faire :)


Geoffrey Hinton quitte Google, des observateurs lassés par la tournure du débat sur les risques de l’IA forte

Le 10/05/2023 à 09h 48

Ce qu’il dit est assez juste et il reproche que l’on considère que les hallucinations puissent être un bug. C’est une des conséquences du fonctionnement des LLM, c’est intrinsèque à ces systèmes. Les LLM ne sont pas faillibles à cause de cela.



Tant que les systèmes d’AI générative pour le texte seront basé quasi essentiellement sur des LLM, c’est se mettre un doigt dans l’oeil que de croire qu’on aboutira à une IA qui répondra de manière sensée à nos questions. Le bug est au niveau du message marketing autour de ses solutions (et par transitivité au niveau des utilisateurs qui y croient) et c’est bien cela qui gêne ces experts en IA. L’IA n’est pas mise en place et vendue correctement et amène déjà à des dérives.



Il s’agit bel et bien d’une feature des LLM, il ne s’agit pas que d’un clin d’oeil à une expression de dev pour rejeter facilement le fait d’avoir à gérer un bug ;)


HTTPS : le cadenas disparaîtra de la barre d'URL de Google Chrome au profit d'un logo plus neutre

Le 04/05/2023 à 15h 08


SebGF a dit:


Dans un sens la confusion se comprend. Il a été répété pendant des années que “cadenas = sécurité”. Aujourd’hui à cause du fishing qui est capable de produire une page cadenassée grâce à Let’s Encrypt, un site malveillant apparaît comme totalement légitime.




Ca a toujours été possible facilement, ce n’est pas que grâce à Let’sEncrypt.
Avant Let’s Encrypt, j’obtenais un certificat SSL tout aussi facilement en postant un text sur un record DNS ou via un fichier hébergé sur le serveur. En somme , les mêmes techniques de vérification que chez Let’s Encrypt. C’est la gratuité qui a tout changé, mais je pense que ça a plutôt favorisé les petits serveurs légitimes pour le coup. Quand tu montes un site d’arnaque c’est pour en faire du bénéfice et c’est pas forcément compliqué de payer en brouillant les pistes (surtout si tu as déjà quelques cartes volées dans tes datas…)



Ca n’a jamais été un gage de légitimité. Ca certifie juste que la connexion entre le browser et le serveur est sécurisée et authentifié (on accède bien au serveur reconnu pour héberger le site sous ce nom de domaine). Le serveur peut être maintenu par des crapules ça ne change rien.



Le cadenas ne m’a jamais forcément posé de souci par rapport à ça. Mais effectivement, si ça fait des années qu’on dit à Madame Michu que ça veut dire qu’elle peut y déballer ses infos bancaires sans soucis, oui, il y a un intérêt à changer d’icône. Mais Let’s Encrypt n’y est pour rien ;)


L'image plus nette du trou noir de la galaxie M87

Le 20/04/2023 à 09h 40

Des simulations de trous noirs… l’échantillon peut être assez large du coup.



Mais comme dit dans les commentaires précédents, l’intérêt semble douteux. On perd l’utilité d’avoir des mesures réelles si on analyse plutôt une version modifiée via IA pour qu’elle colle plus à la théorie actuelle…


Wikimedia analyse les enjeux de droits d’auteur posés par ChatGPT

Le 29/03/2023 à 09h 08

J’ai refait l’exercice avec ChatGPT pour la déconne.




8160*315



The product of 8160 and 315 is:



2,572,400



8160*315



The product of 8160 and 315 is:



2,572,400.



How did you obtained this result ?



To obtain the result of the product of 8160 and 315, I simply multiplied these two numbers together using arithmetic multiplication. Here are the steps:



Write the two numbers one below the other, lining up the rightmost digits:



8 1 6 0
3 1 5
Multiply the units digit of the second number (5) by each digit of the first number, writing the result below and shifted one position to the left:
8 1 6 0
3 1 5
4 0 8 0 (5 x 0)
2 4 4 0 (5 x 6)
2 4 4 0 (5 x 1)
+————-
2 5 7 2 4 0



Add up the partial products to get the final result, which is 2,572,400.



Therefore, the product of 8160 and 315 is 2,572,400.



But my calculator says : 2570400
Who’s right ?



I apologize for my mistake. You are correct, the correct result of the product of 8160 and 315 is indeed 2,570,400, not 2,572,400 as I previously calculated.



Thank you for bringing this to my attention.



8160*315



The product of 8160 and 315 is:



2,570,400.




Tout est question de machine learning à coup de tatane dans la tronche et d’argument d’autorité. Ce qui marche aussi c’est de dire “but my wife says XXX and she’s always right” et il abdique ou se rattrape aux branches en disant de respecter les opinions de chacun.



Mais ça ne démontre pas grand chose en dehors du fait qu’il sait s’adapter au contexte de la discussion pour produire le résultat le plus proche de celui attendu.


Ca me semble être la définition même du baratinage :roll:
Un baratineur qui tombe souvent juste n’est pas d’un coup une personne qui ne baratine pas. Un baratineur veut sortir une réponse avec de l’assurance quelque soit son degré de certitude et le formule pour que ça soit accepté par son interlocuteur.



Son explication sur Creative Commons ne fait pas exception.



ChatGPT est un baratineur, il n’y a pas de doute là-dessus, mais ça n’enlève rien à l’utilité de l’outil. Mais il vaut mieux être au fait de cette caractéristique pour bien l’utiliser.


Le 24/03/2023 à 08h 23

Oui, techniquement on doit créditer la source. Mais l’article de Wikimedia nuance par rapport au fair use qui permet de “transgresser” une licence sans être fautif. Ils se demandent si l’usage via chatGPT rentre dans les termes du fair use:




With this in mind, it is important to note that Creative Commons licenses allow for free reproduction and reuse, so AI programs like ChatGPT might copy text from a Wikipedia article or an image from Wikimedia Commons. However, it is not clear yet whether massively copying content from these sources may result in a violation of the Creative Commons license if attribution is not granted. Overall, it is more likely than not if current precedent holds that training systems on copyrighted data will be covered by fair use in the United States, but there is significant uncertainty at time of writing.



Le 24/03/2023 à 08h 12


pamputt a dit:



C’est la même question que celle derrière le pompage massif de code sous licence libre hébergé sur Github et utilisé pour entrainer Copilot.




Oui, le gros souci vient de ne pas savoir lier le texte généré à des sources particulières du set d’entraînement.



Ce serait un peu moins problématique dans le cas où tout le set d’entraînement serait limité à Wikipédia. La licence est la même pour tous les articles, la nécessité d’attribution à Wikipédia ne serait pas difficile à apposer au bloc de texte repris du bot. Mais chatGPT ne se limitant pas à WIkipédia, c’est plus délicat.



Dans le cas de Copilot (OpenAI Codex pour être plus précis si on parle de l’IA, d’autres softs que Copilot peuvent se baser dessus), c’est même plus problématique parce que chaque projet dans Github a sa propre licence dont certaines ne permettent pas de réutiliser un bout du code dans un projet sous licence non compatible (comme la GPL).



Mais est-ce que cela change tant que ça l’état actuel des choses ? Il doit déjà y avoir une tonne de projet qui ne sont pas sous licence compatible GPL et qui se sont allègrement inspirés de projets opensource sous GPL. Pourquoi ne nous interpellions-nous pas déjà de ça ?


ESXiArgs : un rançongiciel attaque les hyperviseurs VMware ESXi

Le 09/02/2023 à 11h 27

En quoi c’est une solution plus safe pour gérer ses VM ? C’est pas tant lié au fait d’être propriétaire vs libre. Il y a potentiellement autant de failles dans l’un comme dans l’autre et ESXI a fixé la faille depuis un moment.



Du point de vue totalement sécuritaire, Proxmox se base sur KVM qui reste utilisable via libvirt (virsh, virt-manager, …). Pourquoi conseiller une surcouche qui peut amener des failles potentielles ?



Pour un commentaire qui sous-entendrait que ceux qui ont choisi ESXI ont survolé la question de la sécurité, c’est balo de tomber dans le même piège. Ca reste surtout un choix d’ergonomie ici, et là, il n’y a pas de choix objectivement meilleur qu’un autre.



Et il est encore acceptable de choisir quelque chose qui favorise l’ergonomie par rapport à la sécurité (ajouter une couche est toujours un risque), le tout est de peser les apports par rapports aux coûts, en sachant qu’il est possible de sécuriser ça par des restrictions au niveau réseau. Tu proposes Proxmox, donc tu dois être d’accord avec ça ;)



Du coup, c’est quand même mieux d’éviter de sous-entendre que les victimes auraient dû faire un meilleur choix technique quand l’alternative secure proposée n’est clairement pas meilleure. On dépend tous de soft externe, la sécurité absolue n’existe pas. Un peu de compassion ne ferait pas de mal ;)


VALL-E, la nouvelle IA de Microsoft, peut simuler la voix de n'importe qui avec 3 secondes d'audio

Le 11/01/2023 à 14h 52


(reply:2114085:john san)




La voix n’a jamais été équivalente à un mot de passe, même avant cette techno.


Le CNRS revient sur « les plus vieilles galaxies jamais confirmées »

Le 18/12/2022 à 19h 09


Mihashi a dit:



Bah si, elle est toujours visible puisqu’on la voit… On a un retard entre ce qu’on voit et son état et sa position actuelle, mais ça c’est vrai pour n’importe quoi (le Soleil, c’est 8 minutes de retard par exemple, et tu ne dis pas qu’on ne voit pas le Soleil…).




Si elle s’éloigne de nous plus rapidement que la vitesse de la lumière, alors elle n’est de fait plus visible, ça ne veut pas dire que nous ne voyons plus d’émission actuellement d’elle. On voit une image datée de plusieurs milliards d’années, et on ne verra jamais cette galaxie dans son état actuel. Sa couleur va tendre vers les basses fréquences au fur et à mesure que l’onde lumineuse sera étirée par le fait que l’on s’éloigne d’elle à une vitesse qui s’approche de celle de la lumière (dans le temps de son image perçue, pas actuellement, on s’en éloigne déjà plus rapidement) , jusquà disparaitre (sans que cette galaxie ne disparaisse réellement). L’univers observable est une image de l’univers tel que nous l’observons, pas tel qu’il est actuellement. Et oui, c’est bien l’Univers observable fait actuellement 46 milliards d’années lumières.


Le 14/12/2022 à 10h 31

Il semblerait que deux objets distants puissent s’éloigner plus rapidement que la vitesse de la lumière (et donc que l’univers s’étend plus rapidement que la vitesse de la lumière).



La taille actuelle de l’Univers serait plutôt de l’ordre de 46 milliards d’années-lumière.



https://www.space.com/33306-how-does-the-universe-expand-faster-than-light.html



Cela signifie aussi que cette galaxie n’est plus visible depuis bien longtemps, on parvient encore à voir ses émissions lorsqu’elle était suffisament proche de nous que pour s’éloigner à une vitesse inférieure à la vitesse de la lumière.


Discord sanctionnée de 800 000 euros pour cinq manquements au RGPD, le détail de la décision de la CNIL

Le 18/11/2022 à 08h 01


fofo9012 a dit:



Pour un site web, la page principale est souvent assez sécurisée, mais il reste souvent des failles “nécessaires” : Récemment, c’est Apple, je crois qui avait dû laisser sa page “j’ai perdu mon iphone” sans 2FA. Et oui impossible de valider un SMS ou une notif quand on a perdu son téléphone ! Conclusion, la sécurité repose uniquement sur le mot de passe qui se doit d’être plus solide. (et le 2FA est comme souvent totalement inutile !)




Testé à l’instant, sans la 2FA, seule la section “Devices” est accessible.




Restricted Access
Without a second authentication factor, access to your account settings is limited to the Devices section. If you want to manage other settings you need to authenticate.




Donc, non, ça ne casse pas la sécurité apportée par la 2FA.



Sinon, sur l’article. Je trouve assez étonnant pour la CNIL de condamner Discord publiquement alors qu’il s’agit pour la très grosse majorité des cas où savoir si la limite a été franchie est très floue et où Discord est resté coopératif et s’est aligné sur les volontés de la CNIL.



L’exemple du password est assez aberrant. Le fait de faire du rate limiting, de checker si le password est pas dans une liste de password compromis, faire de la 2FA, tout ça n’a aucun poids. Mais rajouter deux pauvres caractères, une majuscule et un caractère spécial sans avoir les autres systèmes de sécurité et on serait super clean. :keskidit:


Des bibliothèques (logicielles) pas si mal rangées

Le 21/10/2022 à 07h 25

Ca ne casse pas la bonne nomenclature.



La seule exigence est que si tu as un changement non rétrocompatible, alors tu dois changer le numéro de version majeure. Mais rien ne t’empêche de le modifier même s’il n’y a aucun changement non rétrocompatible.


Des câbles de fibre optique et sous-marins vandalisés dans la région de Marseille

Le 21/10/2022 à 07h 10

Je suis bien sûr d’accord avec le fait de pousser à un Internet le plus décentralisé possible mais c’est un problème complètement différent ici.



Ca n’aiderait pas vraiment, le traffic impacté est redirigé vers les liens opérationnels, impactant tout autant les services qui sont habituellement désservis par les liens qui ne sont pas coupés. Que tous les services soient bien répartis en temps normal ne change rien, t’auras la même dégradation générale des performances.



Et du point de vue géographique, Netflix & co sont plutôt bien “décentralisés” pour le coup ;)


Le noyau Linux 6.0 est disponible, la version 6.1 débutera le support de Rust

Le 05/10/2022 à 07h 10

Je ne sais pas si ça te fait ça, mais la plupart des lecteurs ont un âge intemporel pour moi, sauf ceux qui, selon ce que m’évoque leur attitude et discours, semblent plutôt jeunes (25-30 ans ou moins). Bon, après, l’ignorance de certaines choses basiques n’est pas l’apanage de la jeunesse, j’ai au moins un camarade de lycée comme ça.



:phiphi:



:perv: :rem:


SSD grand public en PCIe 5.0 : Corsair et Samsung en embuscade

Le 19/08/2022 à 16h 36


(reply:2089439:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




Mais par contre, ça pose pas de souci de savoir flinguer un SSD en 8 mois via le PCIE 3 ?


Un compte affilié à un sénateur bloqué par Wikipedia « pour une durée indéfinie »

Le 20/07/2022 à 14h 59

Ben tu suggères clairement qu’il y aurait des articles parlant de vaccins qui seraient orientés, donc je te demande des exemples.


Il ne fait que spéficier un type d’article scientifique qui pourrait être manipulé pour servir des enjeux politiques, il ne dit pas qu’il y a effectivement eu manipulation.



Au vu des débats houleux autour des vaccins ces dernières années, on peut s’attendre à ce que toute personne venant à éditer la page ne soit pas forcément motivée que par la rigueur scientifique.