votre avatar Abonné

haelty

est avec nous depuis le 6 octobre 2017 ❤️

302 commentaires

Le 31/10/2024 à 21h 20

C'est réparti entre l'auteur du prompt et l'IA. Car si elle ne "raisonne" pas au sens humain du terme, elle a quand même des connaissances qu'elle met en œuvre.

Si tu dis "OK l'IA, je veux un système d'identification des utilisateurs en PHP", elle va chercher des modèles de code qu'elle a en mémoire. Donc même sans le préciser dans le prompt, tu peux être quasiment sûr qu'elle va y intégrer des bonnes pratiques associées (stockage des identifiants en BDD, sécurisation du mot de passe par hashage/salage, génération d'une page login, etc.) alors que tu ne l'a pas forcément précisé.

Ensuite, la main repasse sur l'auteur du prompt. Par exemple, "Tu peux me rajouter une fonction de réinitialisation du mot de passe qui envoie un email ?" si ça n'a pas été proposé par défaut.

Franchement, faut vraiment jeter un œil à ce que ça donne en pratique sur un chatGPT par exemple, c'est quand même assez dément. Et le côté conversationnel permet de rectifier le tir. Tu peux aussi lui coller ton code de départ et lui demander de se baser dessus.

Bon évidemment, plus c'est complexe et plus la version gratuite trouve ses limites et se perd dans la contextualisation. Sur un projet de très grande ampleur, je pense que même la version payante finit par se perdre...

Bon évidemment, plus c'est complexe et plus la version gratuite trouve ses limites et se perd dans la contextualisation. Sur un projet de très grande ampleur, je pense que même la version payante finit par se perdre...
Mais donc, l'IA est toujours capable de faire le même travail que CrowdStrike et développer un projet de la même complexité que Falcon avec la même qualité ?

J'utilise la version payante et ça va pas bien loin, on voit très vite les limites. Le problème n'est même pas la complexité du problème mais plutôt sa spécificité. Dès que tu sors des sentiers battus c'est très vite compliqué d'avoir un truc efficace voire même potable qui te fasse réellement gagner du temps.
Et malheureusement, la correction via le dialogue ne fonctionne que très rarement. Il tourne en boucle sur la même solution malgré qu'il s'excuse platement d'avoir fait une erreur ^^

Le 31/10/2024 à 09h 35

Bof, c'est drôle à lire mais le code c'est une façon de structurer le raisonnement pour qu'il soit interprétable par un ordinateur, mais c'est pas le raisonnement lui-même.

En l’occurrence, même un développeur peut oublier des cas de figure, c'est même de plus en plus fréquent vu la complexité des outils qu'on développe aujourd'hui et la rapidité de production attendue. Et si dans certains cas l'erreur va être repérée en amont lors de la première exécution ou via des outils d'analyse de code/tests unitaires, il va y avoir des bugs qui vont ressortir 10 ans après parce que personne n'avait envisagé le cas de figure tordu qui mélange 28 conditions indépendantes pour arriver à un unique scénario qui fait tout planter.

Le plantage CrowdStrike, les MàJ de Windows, les caractères spéciaux d'iOS, les jeux vidéos... tout ça est pourtant produit par des développeurs qui écrivent du code.

Je pense donc qu'effectivement une IA est tout à fait capable de générer "from scratch" le code d'une fonctionnalité complète. Et pour avoir des gens qui s'en servent autour de moi, ça fait même plutôt du bon travail...

Les IA génératives actuelles ne font pas de raisonnement non plus (et on parle bien de l'usage de l'IA en l'état actuel par Google ici).

Mais du coup, dans le cas de l'usage de l'IA, qui fait le raisonnement ?

Le 31/10/2024 à 09h 24

Quand j'ai testé GitHub Copilot, j'ai trouvé un gain de temps sur l'écriture de CSS pour un template Hugo. Il suggérait des blocs complets sur lesquels j'ai simplement eu besoin d'adapter quelques valeurs.

Après ça, j'ai testé le mode Chat (je considérais Copilot simple comme une auto completion de luxe), et il produisait une structure basique pour le HTML / CSS qu'il m'a suffit ensuite de peaufiner.

Ou pour du scripting Python, quand je traite par exemple des appels d'API, ça initialise les lignes de request et d'analyse des réponses. Derrière y'a plus qu'à tuner en mettant en oeuvre ce que je veux vraiment.

Voilà ce que j'appelle des structures récurrentes, le gain ici est de laisser la machine produire du code dont la valeur ajoutée ne vaut pas le temps que le dev aurait passé dessus. Permettant de se concentrer sur d'autres.

Et dans mon expérimentation de ce même l'outil, j'ai volontairement initié un projet Javascript (et je suis pas dev, et je connais encore moins le JS) pour évaluer la capacité d'assistance de l'outil. Il kickstart le projet sans problème, pisse du code qui répond à la spec en veux-tu en voilà, propose même une trame d'ajouts de feature, magnifique.

Mais dès qu'on arrive à une étape où la compétence du dev est indispensable, l'outil est inutile. Ce fut une expérimentation personnelle intéressante et enrichissante que j'ai pu mettre en comparaison avec celle réalisée dans un contexte pro avec un panel varié de développeurs (technos ou expérience).

Je ne sais pas ce que Google entend dans son quart de code généré par IA (probablement un énième bullshit), mais si je me base sur ma propre expérience, le plus pertinent est de demander à la machine les tâches simples et répétitives (bref, en gros de faire le taff d'un ordinateur) et laisser l'expertise et la réflexion à l'humain.

Et du coup, chez Google, plus d'un quart du code c'est des templates ? :neutral:

Le 25/10/2024 à 15h 14

"Les expressions de concert et de conserve signifient toutes les deux « ensemble et en harmonie », mais de conserve ne s’emploie généralement qu’avec des verbes tels que naviguer, voyager, aller, etc., dans un contexte de voyage."

https://vitrinelinguistique.oqlf.gouv.qc.ca/22252/le-vocabulaire/nuances-semantiques/difference-entre-de-concert-et-de-conserve

(Raté :prof: :francais: )

Généralement: De façon générale, pour la plupart des personnes ; communément, habituellement


Du coup, c'est bon non ? On est juste dans le cas particulier où quelqu'un ne l'a pas utilisé dans le contexte du voyage. :francais:

Le 25/10/2024 à 10h 15

Ça va beaucoup plus loin que ton user-agent. Il y a de multiples techniques et même avec un tor brower doté de toutes les extensions qui vont bien, ça reste possible.
Tu as notamment la liste des fontes installées sur ton OS, l'API WebGL du navigateur qui va utiliser ton GPU (ou SOC) pour tracer de la 3D de manière assez unique, ton matériel et les capteurs dispo (surtout sur mobile), la taille de ta fenêtre (ça semble bête mais il suffit parfois de 2 ou 3 critères pour définir ton unicité). J'en passe des plus ou moins complexes.

Ca ne répond pas du tout à la question.

Mon image de juste tenir compte de l'user-agent c'est de justement montrer qu'avec une technique de fingerprinting toute pétée, ben on arriverait au même degré d'unicité "affiché".

Ma question c'est sur l'affichage du message "Vous êtes uniques par rapport aux X autres empreintes". Ca veut dire quoi ? Le message est sensé vouloir dire que je suis la seule personne ayant cette empreinte mais du coup, ils ont besoin d'une autre source de donnée pour garantir ou au moins avoir de bonnes chances de détecter qu'il s'agit de la même personne pour ne pas incrémenter le compteur d'usage d'une empreinte.

Se baser sur le fait même que l'empreinte est unique pour prouver son unicité, c'est un problème. Le bandeau "Vous êtes unique" n'est plus conditionnel du tout alors.

D'où mon questionnement, je m'attends à ce qu'ils ne soient pas mensongers à ce point ^^

Le 22/10/2024 à 09h 29

Etre unique n'est vraiment pas une bonne choses selon les utilisations, cela signifie, en effet comme vous venez d'avoir la preuve, qu'avec ou sans cookie on peut s'assurer que vous êtes bien le même utilisateur si vous garder le même moteur de recherche. Les utilisations peuvent être multiple, la bonne interrogation selon moi, est-ce déjà en place avec les grosses entités que l'on connait ?

Ce qui m'étonne c'est comment savent-ils recouper que je suis la même personne ? C'est basé sur l'IP ?

Parce que du coup, forcément qu'on est tous unique à partir du moment où il te répond toujours que tu es unique même si ta signature est partagée par d'autres personnes.

Je voulais juste tester à quel point ce site est sincère dans le résultat présenté. A partir du moment où j'efface leurs outils externes au fingerprinting qui leur permettrait de recouper des fingerprints égaux mais provenant de sources différentes.

Parce que se baser sur l'unicité du fingerprint pour prouver son unicité, c'est... biaisé. À ce titre, je peux juste reprendre ton user-agent. Vu que je le met dans une table dont l'user-agent est lui-même une clé primaire ben tu seras unique. Si deux personnes partagent le même browser, il s'avère juste que je vous considère comme la même personne et l'user agent unique du coup.

Je ne conteste pas que le fingerprinting puisse être utilisé efficacement à des fins de pistage, je pense que c'est plutôt vrai. Je questionne juste ce site en particulier.
C'est soit réducteur pour faire passer un message, soit ils se basent sur une propriété que je n'ai pas effacé entre les différents tests.

Le 16/10/2024 à 11h 40

Ce qui m'étonne c'est qu'en supprimant mes cookies et en forcant un recalcul de fingerprint sur le même browser, je suis toujours considéré comme unique. Comment cela pourrait-il être utilisé pour me pister et remplacer les cookies tiers ?

Le 16/10/2024 à 11h 18

Google et apple se sont désolidarisé de CMG sur cette histoire, ils n'assument pas, mais ça n'enlève rien au fait qu'une société tierce apparemment parvient à contourner les barrières en place, ou du moins c'est ce qu'elle a affirmé. Est-ce que vous avez du neuf là dessus depuis l'article de 404? Vous dîtes "c'est impossible" mais avez-vous creusé les dessous de cette histoire avec CMG?

Rien n'indique que CMG est parvenu à contourner les barrières mises en place par Google et Apple et a effectivement profiter d'une écoute continue sur le micro de smartphones. La seule certitude est qu'ils ont vendu le fait de pouvoir target des personnes en se basant sur des collectes de voix.

C'est difficile de savoir dans quelle mesure c'est du flan marketing de la part de CMG qui gonfle peut-être une pratique très marginale qu'ils ont pu avoir en profitant de partenariat avec des fabricants de devices disons "peu regardants" :D

Mais via les appareils contrôlés par les GAFA c'est peu probable et c'est pas forcément une preuve d'une implication de leurs parts. Le message de CMG est suffisant pour refuser de vouloir collaborer avec eux.

Le 14/10/2024 à 12h 15

Et le système est assez développé pour détecter que tu sors des mots-clés expressément pour forcer des pubs ciblées et les ignorer pour éviter de se faire griller. Toi aussi ça le fait à chaque fois ? :O

Le 17/10/2024 à 09h 18

de la rendre enfin neutre, non biaisée, non aveuglée par des stéréotypes stupides et régressifs qui n'ont plus de sens en 2024
Ne s'agit-il pas là d'un biais que de considérer que les stéréotypes auraient eu du sens à une époque et qu'avec les années on progresse nécessairement vers un raisonnement absolu ? :roule:

Inutile de survendre l'argument, l'époque ne fait rien à l'affaire :non: (quand on est c✱✱, on est c✱✱, comme disait un chanteur moustachu)

Le 10/10/2024 à 15h 40

Bug ou stratagème, la réponse officielle de YouTube c'est "nope, tout va bien, bouffez nos pubs, à plus, bisou!"

On parle certainement pas d'un problème affectant 4 mecs en Laponie Équatoriale, sinon ils n'auraient même pas pris la peine de réagir. Donc si le souci a dépassé le stade de l'anodin, juste répondre "non c'est okay", ben c'est pas du tout okay. Quoi qu'il y ait derrière.

Ha si c'était une critique sur la forme de la réponse au problème alors oui, elle est limite en effet. Le problème a bien existé.

Mon commentaire était plus pour réagir sur le fait qu'ils essaient de camoufler une "entourloupe" ^^

Le 10/10/2024 à 15h 25

C'est peut-être bien un bug aussi...

« Ne jamais attribuer à la malveillance ce que la bêtise suffit à expliquer. »

Le 17/09/2024 à 20h 36

Il vieillit bien notre cher Linus. :)

Le 16/09/2024 à 11h 42

Certains reviennent aussi du SemVer, car c'est pas très vendeur commercialement.

Le langage Java par exemple, utilisait au début du SemVer. Java 2, c'est en réalité Java 1.2. etc. Je crois que ça a changé vers Java 5 (où le 5 est véritablement devenu la vraie version de Java, et pas juste 1.5). Mais je ne suis pas spécialiste Java, donc je peux me tromper ^^

Idem avec Firefox. Pendant longtemps, c'était du SemVer. Mais Mozilla a décidé d'utiliser la même pratique que Chrome, car malgré les versions fréquentes, cela donnait un sentiment d'immobilisme (par exemple, la première version de Firefox 3.6 date de janvier 2010 quand la dernière, la 3.6.28 date de mars 2012 soit plus de 2 ans en 3.6.x). Maintenant, c'est un cycle rapide, avec un cycle de quelques semaines seulement.

On est d'accord. Le SemVer est plutôt adapté pour des librairies. Pour des applications ça perd vite son sens parce qu'on ne souhaite pas essentiellement communiquer sur le côté "rétrocompatible" de telle ou telle fonctionnalité.

Le 13/09/2024 à 02h 21

Nope, c'est majeur.mineur.patch
Donc c'est la première version majeure :)

https://semver.org/lang/fr/

Un joli milestone pour ce beau projet !

Je sais bien que ça faisait référence au SemVer ;)

J'ai effectivement fait un abus de langage en parlant des versions 0.x comme majeures. Mais c'est plutôt considéré comme tel dans la pratique. Dans les différents packages managers qui utilisent le semver pour choisir le package le plus récent qui ne casse pas l'API, les changements de numéro mineur dans les versions 0.x.y sont considérés comme des breaking changes. Ils sont donc considéré comme étant des changements de numéro majeures.

D'ailleurs selon le SemVer, l'ajout de fonctionnalités compatibles (ce qui est le cas de la plupart des ajouts sur le Flipper) nécessitent juste un changement de numéro mineur. Du coup, pour documenter les apports de fonctionnalités, il faut considérer la majeure précédente ou la mineure ?

Qu'est-ce qui fait que cette approximation d'associer la documentation d'apport de fonctionnalités sur les majeures (puisque pas compatible avec un semver stricte) serait acceptable, mais mon approximation non ? :D

En vrai, le semver n'a rien à voir avec tout ça. La release 1.0 est un milestone symbolique qui offre une belle opportunité de communication et ils ont bien raison de répéter l'annonce de fonctionnalités qui peuvent intéresser les bidouilleurs!

Et ils doivent même pas forcément être exhaustif, on ne manque pas de respect à ceux qui ont bien raison de pas avoir pris la peine de scruter chaque changelog. Comme expliqué, si une fonctionnalité a déjà été mentionnée dans une mineure précédente Ils ne sont pas obligés de le refaire. Ceux qui sont intéressés d'avoir la liste complète de ce qu'il est possible de faire peuvent aller voir la liste des fonctionnalités actuelles ;)

C'est juste de la communication pour toucher une plus grande audience quoi.

Voilà, sorry pour la boutade en tout cas ;)

Le 12/09/2024 à 11h 09

Il est tout à fait normal dans la comm d'une version majeure de re-lister l'ensemble des améliorations qu'apporte cette version par rapport à la version majeure précédente. Ca ne se fait juste pas d'obliger les utilisateurs normaux à agréger eux-même les infos des releases notes des version intermédiaires et/ou beta. Même pour un outil comme celui-là.

Techniquement, dans les versions 0.x.y, chaque incrément de x est une version majeure :cap:

C'est pour la blague, je rejoins le fond de ta pensée ;)

Le 12/09/2024 à 09h 27

C'est probablement aussi l'occasion de présenter les ajouts "récents" pour tous ceux qui auraient arrêté de jouer avec il y a un moment.

Le milestone 1.0 pourrait pousser des amateurs qui ont arrêté d'utiliser ou de chercher à trouver de nouveaux usages à leur Flipper Zero d'y rejeter un oeil.

Le 09/09/2024 à 19h 54

La manette peut se connecter au client Steam Link. C'est ce que je fais parce que chez moi, la distance au PC fait que c'est la physique qui s'occupe de déconnecter ta manette, pas besoin d'un nouveau protocole pour ça :D

Le 14/08/2024 à 16h 48

Si l'exception pouvait être catché, très bien, il aurait fallu le faire. Je n'ai pas de problème avec l'idée et ne dit pas le contraire. Sauf que là, c'est une exception non prévue, puisque de fait, elle n'était pas attendue ni anticipée, sans doute à tord. Je dis juste que vous ne pouvez pas catcher toutes les exceptions sans réfléchir à chaque fois pourquoi vous le faites.

Je vais partir du cas général, pour arriver au contexte du bug cité plus haut.

Admettons que vous faites "a=1/2". Vous ne pouvez pas faire un catch d'une exception générique de cette opération, en disant j'attrape tout. Si vous avez une division par zéro, c'est incohérent car elle ne devrait pas arriver, donc autant tout faire tout planter (la mémoire peut être instable ou que sais-je). Si vous continuez l'exécution, vous arrivez de toute façon dans un état incohérent.

Autre exemple, si vous n'avez plus assez d'espace mémoire et avez une exception de ce type, vous pouvez essayer de catcher l'exception, mais si vous le faites, vous devez savoir comment vous en sortir sachant que vous n'avez pas assez de mémoire. Et peut être qu'il n'y a pas de bonne façon de s'en sortir ici. Donc en faisant un catch de cela sans y réfléchir, vous risquez de générer une boucle infinie d'exceptions indiquant qu'il n'y a pas assez de mémoire et comme vous catchez l'exception sans prendre des mesures adéquates, ça ne s'arrête jamais, ce qui sans doute n'a pas fait planter le noyau, mais je ne sais pas trop quel serait son état si un de ses drivers tourne à l'infini.

Mais c'est valable en général pour un algorithme. Si votre algorithme arrive dans état complètement illogique (enfin à priori), je dis qu'il faut tout faire planter, ne serait-ce que pour s'en rendre compte pendant les tests. C'est le principe des assertions.

Donc ici, pour revenir au contexte du "sensor"/driver qui ne s'en sortait pas à cause d'un accès mémoire invalide, vous pouvez faire un catch du tout et n'importe quoi, mais si vous faites ça, vous devez vous assurer que ce n'est pas une fausse bonne idée. Alors bien sûr, dans le contexte du noyau, sans doute aurait-il fallu simplement ignorer le chargement du drivers, émettre un rapport comme vous le dite, et passer à autre chose. Mais du coup, vous faites un catch en conscience de ce que vous faites, et vous acceptez de faire sauter un "sensor"/drivers lors du chargement de tous les drivers. Je n'ai pas du tout de problème avec l'idée. Mais au moment où prenez cette décision, vous acceptez que des drivers peuvent être manquants, et devez en tenir dans toute votre architecture, sinon, cela pourrait planter ailleurs, et ainsi de suite. Donc oui, avoir une tolérance à la panne, et faire simplement remonter un rapport aurait sans aucun doute été la bonne solution ici, mais ça ne s'improvise pas, il faut peut être en tenir compte ailleurs dans le reste de l'architecture.

Si vous faites des catchs partout sans prendre la mesure de ce vous êtes en train de faire, cela risque in fine de quand même planter mais beaucoup plus loin dans le programme, et là bon courage pour remonter le bug, surtout si vous avez pleins de rapports qui été pondus pendant 2 jours avant que ça ne plante quand même (je ne dis pas que c'est ce qui se serait passé ici, je n'en sais rien). D'autre part, comme c'est dans l'espace noyau, cela pourrait avoir des conséquences délétères non prévues si vous ne l'avez pas bien encadré. Vous évoquez les problèmes économiques, mais là, on parle d'une machine immobilisée par un BSOD. Étant donné qu'on est dans l'espace noyau, imaginez qu'en catchant tout et n'importe quoi, le noyau se mette à faire tout et n'importe quoi en dézinguant le système de fichier. Là, c'est carrément la cohérence des données du système de fichier que vous pouvez flinguer. Je ne sais pas si on peu en arriver là, et si les gardes fou du noyau sont suffisants, mais je veux dire que dans un contexte économique, il y a pire qu'un BSOD.

Mais encore une fois, dans le contexte de ce bug, il était sans doute possible d'accepter une tolérance à la panne, mais cette tolérance doit tout de même être anticipée et encadrée, ce qui n'a pas été le cas ici et c'est bien dommage. Mais ce n'est pas une décision qu'il faut prendre de manière légère et aveugle comme une règle générale (en tout cas pas pour moi).

Donc je ne dis pas "Donc si je comprend bien, comme il n'est pas possible de prévenir de tous les bugs, évitons d'essayer de prévenir de quelque bug que ce soit...", je dis "essayez de prévenir tous les bugs, y compris ceux que vous comprenez pas à l'avance, acceptez la tolérance à la panne, mais si un bug ou une panne non anticipée arrive quand même alors que vous ne l'avez pas prévu ni encadré, je ne crois pas qu'il faille faire un catch aveugle sans en mesurer les conséquences, d'autant qu'à force de faire ça, vous prenez le risque de rendre un bug silencieux lors des tests, et rendre vos remontées de bug plus pénibles et fastidieuses.

"Mais la question n'est pas de faire un catch, mais quoi faire du catch ?"

Si telle était la question de base, alors dans le cas de figure où on est en train d'analyser les différents fichiers sources pour les ajouter à une liste de règles à appliquer, "que faire de ce catch" peut simplement être répondu par "passer le fichier source en cours dont le contenu à provoquer l'exception catchée".

Mon commentaire ne visait qu'à répondre à cette question précise de ce qu'on aurait bien pu faire de ce catch ;)

Le 08/08/2024 à 18h 09

Si le bug est prévisible, ce n'est pas vraiment un bug, vu que vous qu'en l'anticipant, une correction s'impose d'elle même. A partir du moment où vous n'avez pas prévu le bug, il se produira, ce qui s'est produit ici. Maintenant, oui, si le correctif consiste à dire qu'on peut passer au fichier sys suivant, c'est pas grave, OK. Mais les bugs se produiront toujours parceque vous n'avez pas anticiper un problème, jamais autrement, à moins de travailler dans l'objectif de saboter le projet (ce qui peut être une piste cela dit). On peut toujours dire après coup, on aurait pu faire ceci ou cela, mais bon, résoudre le problème à postériori ne résou pas le problème à priori. Impossible de remonter dans le temps.

Donc soit vous décidez à priori que certains problèmes peuvent se poser et que vous pouvez ignorer le chargement fichier sys à priori en toute conscience, soit vous décidez à priori qu'aucun problème ne devrait se poser, car au moment où vous écrirez le code, vous considérerez que le problème que vous envisagez est impossible (à tord ou à raison), et que s'il se produit quand même, c'est que au moment où vous y pensez, vous ne savez pas pourquoi cela se produit. Soit vous tolérez l'erreur sans trop savoir ce que ça va donner (et éventuellement ce que cela va empirer), soit vous faite tout planter, en disant qu'il vaut mieux préserver l'intégrité du système, et notamment l'intégrité des données qu'il ne faut pas corrompre. Si le noyau arrive par exemple à un état non anticipé, est-ce qu'il vaut mieux générer un écran bleu ou continuer au risque de bousier le système de fichier ? Par exemple, et petite digression, j'ai entendu du dire que le noyau Linux était tellement stable qui ne générais pas de kernel panic même avec une mémoire instable. Personnellement, cela m'est déjà arrivé d'avoir une mémoire instable, le noyau n'a pas planté, et pourtant mon ordinateur faisait n'importe quoi (j'ai mis du temps à comprendre que c'était la mémoire le problème, enfin 2h). J'estime avoir eu de la chance que ça n'ait pas eu plus de conséquences sur mon système de fichiers. J'aurais préféré un kernel panic. Maintenant, dans le cas de cet article, je ne sais pas trier ce que peut être toléré comme erreur de ce qui ne peut pas l'être.

Ce que je dis en revanche, c'est que les bugs arrivent quelque soit les précautions prises. Donc par définition, si on n'anticipe pas un bug et son sens, c'est qu'on ne sais pas s'il faut faire tout planter, ou si on peut tolérer l'erreur. Pour tester un programme, on doit faire des tests, et mon propos initial supposait que des tests sur Crowdstrike avait bien été effectués avant la mise en production. Je me suis alors demandé comment des tests peuvent passer sur une machine de test et pas sur une machine en production ? Du fait qu'un programme C ne fait pas toujours planter un programme à cause d'un mauvais accès mémoire, seul le noyau fait planter le programme s'il se rend compte que l'accès porte sur un espace mémoire non autorisé. Mais si l'accès mémoire est autorisé au moment du test, bien qu'incohérent, le noyau n'arrête rien, et le programme C n'arrête rien non plus, ce qui n'aurait pas été le cas d'autres langages (Pour les langages système, on peut citer Rust). Cela peut être une hypothèse (entre autres) de pourquoi le bug a passé les tests : l'environnement mémoire n'était pas le même, et dans un cas, le noyau ne fait pas planter le programme, dans l'autre il faitt planter le programme (et lui même), et pas de chance, ça tombe en prod. Ben ça, ça arrive typiquement avec C/C++.

Donc au final, un langage moins laxiste sur la gestion de la mémoire, si les hypothèses de départ sont les bonnes, aurait peut être permis d'éviter le problème, car le dit programme aurait planté dès la phase de test.
En disant cela je comprend qu'on ne peut pas se permettre de tout recoder en Rust, mais tout de même, je n'ai jamais trouvé bien pratique cette façon d'accepter n'importe quoi en C en matière de gestion de mémoire, en pariant sur le fait qu'un⋅e développeur⋅e doit être parfait (impossible !), et que cela ne devrait jamais arriver.

Donc si je comprend bien, comme il n'est pas possible de prévenir de tous les bugs, évitons d'essayer de prévenir de quelque bug que ce soit...

On parle bien du bug qui concerne cette news-ci. Le process parcourt une séquence de fichiers de définitions pour définir divers types d'attaques ou signatures de virus. Si un fichier est invalide, il est tout à fait possible de soit l'ignorer, soit d'afficher un warning à l'attention de l'utilisateur et de faire un reporting pour détecter activement de cette anomalie.

Le processus tournait bien avant l'ajout du fichier de définition invalide, le fait de l'ignorer est envisageable.

Je ne dis pas que c'est LA solution à privilégier, je réagis simplement à votre remarque qui dit que finalement, à quoi bon tenter de catcher la moindre exception, étant donné qu'il y en aura toujours bien une qui sera lancée un jour où l'autre et qu'on aura pas prévu...

Dans ce cas-ci, on aurait évité des BSOD qui ont causé des pertes économiques certaines, sans parler des risques pour les personnes dans le cas où ça concerne des postes utilisés en milieu sensible.

Le 22/07/2024 à 17h 44

Mais la question n'est pas de faire un catch, mais quoi faire du catch ? Si vous décider de poursuivre l'exécution alors que l'état du programme est incohérent, vous n'aurez rien résolu du problème initial et vous déplacez le problème ailleurs. S'il y a un écran bleu sous Windows, ce n'est pas parce que le noyau fonctionne mal (ou pas forcément), mais parce que le noyau est arrivé dans un état incohérent où il ne peut poursuivre son exécution sans potentiellement aggraver le problème. Un catch pour empêcher l'écran bleu ne changerait rien au fait que cela n'aurait pas du arriver dans le sens où le bug n'a pas été anticipé (sinon, il n'y aura pas de bug en fait).

Ce qui peut arriver à l'échelle du noyau peut aussi arriver à l'échelle d'un programme. Faire un catch de quelque chose d'incohérent dans le contexte, ne changera rien au fait que cela n'aurait pas du arriver. Et donc, dans ces conditions, il vaut mieux que tout plante plutôt que continuer l'exécution avec un cas non prévu. C'est tout ce que j'ai essayé de dire, et c'est pas la peine de me prendre de haut en entrant dans les détails technique du C pour noyer le poisson dans l'eau. Ce que je dis est une banalité. Votre façon de me rabaisser est intolérable.

Au hasard, passer au fichier .sys suivant et ne pas charger la protection contre les named pipes foireux ?

Il est aussi possible d'envoyer un rapport d'erreur pour remonter le problème et envisager un correctif.

Le 12/03/2024 à 17h 47

Je n'ai pas de problème "viscéral", à vrai dire je m'en cogne de qui baise qui et de quel sexe chez lui. Ce qui me pose problème c'est vraiment le prosélytisme croissant et mal inspiré de certains dans cette communauté dont le don du sang, devant lequel ils se dégonflent après en avoir réclamé le droit et que l'EFS consente même à violer la langue pour les rameuter, n'est pas le principal problème hélas...

Je dirais que ça a démarré avec la gay-pride: Franchement, qui a envie en croisant cela dans Paris avec ses gosses de leur expliquer pourquoi 2 mecs/nanas se paluchent, ou ce que la grande folle en talons cambrée comme la vache qu'on amène au taureau a logé dans le fion?

Et ça c'était avant qu'ils ne demandent la PMA (le M c'est pour médical, rappelons le) pour toutes (sans logique vs des préférences sexuelles rendant l'affaire normalement impossible) en attendant la mère porteuse pour tous, par souçi d'égalité...

Il y a un moment ou cela pose en effet un problème qui peut devenir viscéral, mais merci de ne pas confondre cause et conséquence.

C'est triste de s'attendre à ce que tes gosses ne te demandent rien de plus compliqué que d'expliquer pourquoi 2 personnes peuvent s'aimer quelque soit leur genre.

J'ose espérer qu'ils peuvent s'exprimer suffisamment librement que pour pouvoir te poser des questions hautement plus intimes que ça sans avoir à sentir qu'il y a un problème parce que ça dérange papa ou maman.

Le 11/03/2024 à 12h 19

Ce qui ressortait de cette affaire au delà du problème d'écrire en français, c'est que les minorités concernées qui ont fait des pieds et des mains des décennies pour pouvoir donner, amenant sans doute à ces point-débiles-pseudo-inclusifs dans les com de l'EFS, sont plus fortiches pour réclamer des droits que pour les devoirs qui en résultent.
In-fine, comme ils ne viennent pas, l'EFS ne pouvait pas se permettre d'irriter ceux qui viennent pour quelques fio:censored: qui aiment visiblement plus râler que les piqures!
Et de ré-écrire en français lisible et même prononçable...
:bravo:

"In-fine, comme ils ne viennent pas, l'EFS ne pouvait pas se permettre d'irriter ceux qui viennent pour quelques fio:censored:"

Ha mais tu réussis vraiment bien à montrer que le problème que tu as avec cette comm' se situe au niveau de la langue française et pas un problème viscéral contre ces personnes :stress:

Le 06/03/2024 à 10h 40

Du coup, que penses tu de ce petit programme de monitoring des fréquences CPU en C, écrit le nez au vent sans notes, juste avec le schéma de données en tête ? :D

https://github.com/TNZfr/watchfreq

Edit : Eh bé ... 22 clones du dépôt en 5 heures. :)

Ce projet est vraiment sensé pouvoir démontrer quelque chose ?
Il ne démontre aucune compréhension spécifique de l'architecture d'un ordinateur. Faire des malloc, utiliser le keyword "register" ou savoir comment récupérer les fréquence du CPU via sysfs ça n'est pas de la compréhension du fonctionnement d'un ordinateur. Tu sais coder en C et utiliser certaines API du système Linux.

La remarque de Stéphane sur le fait d'être un Dieu s'attache plutôt à critiquer la remarque qui était que si tu sais comment l'ordinateur fonctionne, alors il est à ta charge de gérer l'intégrité de la mémoire et que, au final, c'est facile de ne jamais faire de bourde puisque tu sais comment ça fonctionne.

Tu es inhumain si tu es capable de guarantir que tu ne commetras aucune erreur de distraction qui aboutiront à des problèmes de mémoire si tu n'as pas l'assitance d'outils (et il en existe en C aussi).
Là aussi ton projet ne démontre rien, sa complexité est trop basse pour prouver que tu as cette qualité qu'on trouve inhumaine ;)

Le 06/03/2024 à 10h 13

On peut aussi juste respecter la langue francaise, qui est déjà adaptée pour inclure TOUT LE MONDE, sans faire d'exception (contrairement à l'écriture inclusive excluante) et qui est parfaitement lisible, au lieu de tout faire pour la détruire connement.

«[La] langue française n’est point fixée et ne se fixera point. Une langue ne se fixe pas. L’esprit humain est toujours en marche, ou, si l’on veut, en mouvement, et les langues avec lui. Les choses sont ainsi. […] Toute époque a ses idées propres, il faut qu’elle ait aussi les mots propres à ces idées. Les langues sont comme la mer : elles oscillent sans cesse. À certains temps, elles quittent un rivage du monde de la pensée et en envahissent un autre. Tout ce que leur flot déserte ainsi sèche et s’efface du sol. C’est de cette façon que des idées s’éteignent, que des mots s’en vont. Il en est des idiomes humains comme de tout. Chaque siècle y apporte et en emporte quelque chose. Qu’y faire ? cela est fatal. C’est donc en vain que l’on voudrait pétrifier la mobile physionomie de notre idiome sous une forme donnée. C’est en vain que nos Josué littéraires crient à la langue de s’arrêter; les langues ni le soleil ne s’arrêtent plus. Le jour où elles se fixent, c’est qu’elles meurent.»

Victor Hugo


Mais tu considères aussi qu'un bon dev est un dev qui ne fait jamais d'erreur malgré le fait d'être un humain. Ca ne doit pas te sembler impossible d'arrêter le soleil non plus :mrgreen:

Le 05/03/2024 à 16h 56

Les personnes trop sûres d'elles au point d'être persuadées de faire un travail toujours proche de la perfection (s'ils ne la dépassent pas), c'est dans tous les domaines, pas spécifique au développment :)

Et les bugs sur le terrain, c'est toujours de la faute de leurs clients, rayonnements cosmiques, ou parce que le système n'est pas configuré comme chez eux, n'est-ce pas ?

Rust pour le coup serait un très bon langage pour ces personnes-là en leur forçant à réexaminer le code que le compilateur refusera et de voir où les possibilité de condition de course ou d'aliasing interviennent, ce leur serait d'un grand apprentissage. Mais malheureusement leur ego, qui n'a d'égale que leur sentiment d'excellence, ne leur permet pas ce genre de remise en question.

Si tu es dans cette catégorie, je te souhaite de courage pour gérer les bugs sur le field. Mais je sais, ça ne doit jamais t'arriver ;)

Le 05/03/2024 à 16h 51

Je ne supporte pas cette écriture aussi débile qu'imprononçable... Ce qui est dingue, c'est que même l'EFS s'y était mis une fois aux appels au don du sang. Apparemment, ça avait été la douche pour en avoir parlé au médecin par lequel on passe avant: Au mieux les gens venaient et demandaient quelle mouche les avait piqué au pire ils ne venaient pas. Le plus cocasse étant que ceux a qui cela s'adressait et qui a qui il était enfin permis de donner sans devoir mentir ne venaient pas plus: Ça demande des "droits" mais quand il s'agit de donner de sa personne pour les exercer y'a plus personne.

Depuis l'EFS écrit de nouveau en français. Un bilan qui vaut sans doute bien des sondages.

Donc tu penses réellement que l'EFS permet à des homosexuels de donner du sang dans l'unique but d'être inclusif et de suivre une mode ?

Je ne supporte pas ta façon de raisonner mais pourtant je considère que tu as le droit de t'exprimer. Tu ne me portes pas irrespect comme le commentaire plus haut ne te porte atteinte en aucune manière.

Le 04/03/2024 à 16h 30

"Les devs que je connais sont humain·es..."

Va falloir inventer le langage de programmation inclusif, piquant les yeux à l'écrit et imprononçable à l'oral, imposant d'oublier "l'accord" qui ferait écrire "developpeur-euse" sonnant trop "develop-peureuse" et bouclerait la boucle de l'inclusif au stigmatisant!

Bon, sur le fond du problème on en revient à des préoccupations très typiques des USA: Liability menant au Foolproof (littéralement: "A l'épreuve des cons"), par conception et/ou parades/avertissements.

Les conséquences chez eux allant du "Objects in the mirror are smaller than they appear" (sans déconner!) gravé sur les rétros de bagnole à des matériels conçus pour presque tout pardonner niveau erreurs de l'utilisateur. Quand c'est trop difficile voir impossible (aviation...), cela peut mener à la faillite des constructeurs sur un seul évènement. Y'a bien que le sacro-saint flingue qui chez eux échappe au concept.

Va falloir boire ta camomille :kimouss:

Le 04/03/2024 à 16h 22

Parce qu'il n'y a pas que les dévs qui font du développement. Il y a aussi énormément de pisseurs de code (très probablement bien pus nombreux que les dévs).

Tu as oublié les devs trop sûr d'eux qui pensent que les bugs de mémoire ne sont introduits que par des pisseurs de code :mad2:

C'est l'humain le soucis et c'est l'idée de se baser sur la capacité d'un dev à ne pas commettre d'erreur qui est une erreur.

Le 23/02/2024 à 16h 10

Ok, continue de faire totalement abstraction de ce que j'ai dit, et du contexte de la discussion. C'est puéril, et stéril (peu importe l'organe).

C'est le Pinailleur pinaillé ! :smack:

Le 23/02/2024 à 16h 03

Oui on est d'accord. Je dis juste que le sexe n'est pas le sujet ici.

Sorry, je ne voulais pas te citer spécifiquement, je voulais poster ça de manière générale sur la conversation. Mais je ne vois pas comment faire ça depuis le nouveau design du site ^^

Le 23/02/2024 à 15h 27

Ce que tu as entre les jambes n'a rien à voir avec ton genre.

Ha, des discussions stériles où personne ne prend la peine de s'aligner sur les termes utilisés c'est tellement agréable à suivre...
Peut-être que vous entre-apercevriez que vous êtes plutôt d'accord entre vous quand vous aurez compris qu'il ne s'agit pas d'un problème rhétorique sur le sens donné à tel ou tel mot.

Savoir s'aligner sur la forme pour discuter du fond quoi...

Le 23/02/2024 à 10h 28

C'est s'adapter à son environnement avec un but. C'est de l'intelligence. C'est pas de la conscience, c'est assez basique, mais c'est de l'intelligence. Comme un chat, comme ChatGPT.

J'ai pas fait mes "petites recherches" j'ai fait mes grandes recherches et je comprends très bien le fonctionnement des transformers, et des modèles de diffusion. Notre désaccord n'est pas technique, il est philosophique.

Je comprend du coup que tu veux jouer sur le sens donné à l'intelligence. Tu réagis quand même à un commentaire qui indique juste que pour l'instant on survend un peu trop chatGPT et beaucoup de gens se pignolent justement sur l'intelligence de chatGPT et l'utilise en ne prenant pas la mesure de ce qu'il est capable de faire. Parce que justement, l'intelligence que tu peux y voir n'est pas intrinsèque à chatGPT, elle est émergente. Tout comme l'adaptation des espèce est émergente du processus de mutation génétique, ce processus n'est en aucun cas intelligent ni même n'a l'adaptation comme but, ce processus existe tout simplement et a permis de soutenir une évolution des espèces. Ca reste un processus émergent. C'est toute la beauté d'arriver à des systèmes complexes basés sur des briques toute simples.

On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.

En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.

En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)

Le 22/02/2024 à 14h 27

Ha oui bien sûr où avais-je la tête.

Je suppose que les humains ne fonctionnent pas par association d'idée et qu'à chaque fois qu'on nous présente une multiplication on refait la démonstration fondamentale de la multiplication dans notre esprit.

Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde, par contre une machine qui peut faire une dissertation meilleure que 50% des lycéens non c'est pas intelligent, tiens on va plutôt la comparer à un philosophe professionnel comme Raphaël Enthoven. Perso j'aurais trouvé ça plus drôle si au dernier moment on avait demandé à Enthoven et à l'IA de la faire en Coréen la dissertation.

Je suis sûr que quelque part dans la jungle il y a un chimpanzé avec un égo un peu plus boursouflé que les autres, qui est convaincu que son espèce est supérieure et que si les humains ont conquis le monde c'est de la triche car ils utilisent des outils.

Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde
Ha ?

Je pensais que l'orientation des feuilles se faisait via phototropisme: https://fr.wikipedia.org/wiki/Phototropisme

Rien d'intelligent là-dedans, c'est simplement de la physique/biologie ;)
Mais comme pour beaucoup de choses, l'anthropomorphisme nous pousse à imaginer une intelligence là où il n'y en a pas. Il "suffit" généralement de garder l'esprit critique et de faire ses petites recherches pour voir si des scientifiques ont déjà fait des études à ce sujet.

Je vous invite à lire sur les transformers (on parle de réseau de neurones, pas d'Optimus Prime ;) ) et le fonctionnement de GPT pour comprendre un peu plus et éviter de lui accorder trop de capacité.

Le 22/02/2024 à 14h 19

Une IA ne sait peut-être pas ce qu'elle dit, mais si elle est préparée pour, elle peut résoudre des problèmes mathématiques aussi bien que les meilleurs lycéens : AlphaGeometry, un champion des mathématiques, sur Numérama

Pour le moment c'est niveau Lycée, mais vu la vitesse d'évolution des IA dans quelques années il y aura probablement des théories scientifiques et/ou des démonstrations mathématiques découverte par IA.

Attention aux nuances. Les LLM ne résolvent pas des problèmes mathématiques. Même pire, ils n'essayent même pas de répondre à vos questions. Ils génèrent du texte qui collent au modèle qu'ils ont construit suite à leur entrainement. La suite logique d'un texte représentant une question est de fournir une réponse, qu'elle soit correcte ou non. Les LLM n'ont pas de notion de logique, ni de raisonnement.

D'ailleurs, il sera tout aussi simple pour chatGPT de répondre à votre demande quelque soit sa complexité. Le modèle sort de manière déterministe un set de tokens probables pour continuer la conversation (l'aléatoire provient d'un choix arbitraire de ne pas forcément sélectionner le token le plus probable selon le modèle) et en un temps constant que le texte précédant représente des concepts simples ou ultra complexes.

L'une des voies observées sur chatGPT est de laisser la possibilité au LLM de se servir de plugins pour demander des informations à des systèmes qui savent résoudre des problèmes mathématiques par exemple. Cela s'exprime généralement par le fait que l'IA écrive du code python qui est ensuite exécuté pour produire un résultat plus stable que de laisser le modèle générer une réponse plausible et du coup complètement fausse quand on s'attend à un résultat mathématique précis. C'est devenu vachement plus utilisable depuis mais ça n'empêche pas de garder un oeil critique sur le texte produit et de connaitre les limites du systèmes.

Je rejoins le commentaire sur le fait que la presse n'aide pas leurs lecteurs à relativiser sur le message commercial d'openAI, Google, Microsoft et autres. On persiste à présenter les "hallucinations" comme des bugs qui doivent être résolus sans même indiquer que ça fait partie intégrante des systèmes à LLM.

Et on finit par avoir des gens qui utilisent ces solutions en fermant les yeux, comme récemment ces avocats aux US qui reprennent tel quel ce que leur dit chatGPT pour préparer leur plaidoirie et citer des dossiers qui n'existent même pas. (https://www.reuters.com/legal/transactional/another-ny-lawyer-faces-discipline-after-ai-chatbot-invented-case-citation-2024-01-30/)

Le 19/02/2024 à 17h 43

Bah non, si Flock n'avait pas fait une non-faute, je n'aurais rien dit. :D

D'où le "aussi" :P

Le 19/02/2024 à 15h 22

Désolé, je pensais que tu savais lire ou faire un Ctrl F (2e occurence du mot "milliard"). Voici le passage en question :

5. Nombres inférieurs à 2 : accord
Un nom précédé d’une indication chiffrée inférieure à 2 (avec virgule) reste au singulier. On écrit donc : 1,5 milliard ; 1,9 milliard, ce qui, d’ailleurs, se lira plutôt : un milliard et demi et un milliard neuf cents millions ou un milliard virgule neuf.

Donc j'admets mon erreur, on m'a mal appris quand j'étais enfant, et je n'ai pas pris la peine de vérifier si elle était juste. Et effectivement si j'avais sourcé, je m'en serais aperçu avant de poster ! Errare humanum est.

Merci Flock d'avoir fait de moi une meilleure personne :8

Tu pourrais remercier fred42 aussi ;)

Le 19/02/2024 à 14h 58

La voie prise est de réutiliser l'infrastructure de capture vidéo déjà en place et de profiter de l'avancée sur l'IA en matière de reconnaissance pour justement pouvoir gérer toutes ces fluctuations.
L'infra peut rester commune, c'est parfait pour ça. Non le soucis est bien dans la conception de la caméra elle-même dont le capteur est conçu pour un usage précis produire des images pour générer un flux vidéo.

Un second capteur dédié à l'analyse m'apparait bien plus pertinent pour traiter et mettre à disposition d'un logiciel d'autres types d'informations (spectrales, doppler, ..).

Dans ce cas, de plus, cela permettrait de répartir la charge global du calcul de l'analyse sur tous les équipement sources et ainsi d'éviter d'avoir à recourir à de l'infra dédiées par exemple (note que c'est déjà le cas pour certains fabricants qui propose une ouverture de leur produit vers des solutions type plugin embraqué sur l'analyse d'image).
Le fait de ne pas pouvoir distinguer un vélo non-pliable d'un pliable n'est pas une preuve que le système ne peut pas fonctionner. Juste que le modèle de l'IA n'a pas été entraîné pour ça encore.
Ce n'est pas un problème d'IA mais bien d'image source qui n'est pas souvent appropriée à ce type d'analyse et de scenarios attendus. Exemple, dans le cadre d'une solution de comptage du type A->B B<-A.

Le meilleur résultat sera sans doute de positionner une caméra qui perpendiculaire au sol, de tracé une ou deux lignes virtuelles (ie: avec zone blanche de discrimination) pour délimiter les zones A et B. Il y a déjà pas mal de paramètres optique à prendre en compte (contraste, luminosité,..), puis propre au contexte d'analyse (enfants, animaux,..) et scénarios (entrée et sortie rapide, objets positionnés sur le ligne de partage de zone, etc etc). Dans tous les cas, le gout global pour ce cas d'étude sera de plusieurs milliers d'euros.
Et cela dans le but de remplacement une cellule photo électrique dont le coût est de 10-15€ avec une fiabilité supérieure (en terme de comptage on est d'accord).

Sauf qu'ici le but des analyses n'est pas de faire du comptage, on parle bien d'un besoin d'analyse sur des flux vidéos pour repérer des comportements dangereux et/ou interdits.

Forcément, oui pour faire de la détection de passage, y a plus adapté mais ce n'est pas du tout le sujet de la news ^^

Le 14/02/2024 à 09h 47

La voie prise est de réutiliser l'infrastructure de capture vidéo déjà en place et de profiter de l'avancée sur l'IA en matière de reconnaissance pour justement pouvoir gérer toutes ces fluctuations.

L'article ne laisse pas supposer que ça ne fonctionne pas. Il n'y a pas de chiffre indiquant le rapport de faux positifs ni si ça a impacté négativement le travail des agents de sécurité. On reste sur des systèmes d'alertes à destination d'opérateurs humains, les faux positifs ne sont pas un problème en soi. Au pire, les agents n'en tiendront plus compte si c'est beaucoup trop fréquent et ils bosseront "à l'ancienne".

Le fait de ne pas pouvoir distinguer un vélo non-pliable d'un pliable n'est pas une preuve que le système ne peut pas fonctionner. Juste que le modèle de l'IA n'a pas été entraîné pour ça encore.

Le 15/02/2024 à 15h 24

Tout le concept d'Amazon Prime, c'est justement la vente liée.

Ha ?
C'est pas parce que tu fais de la vente liée pour pousser un produit que la vente liée n'est possible que parce que tu l'associes à ce produit.

C'est comme ça pour tout produit, ça n'empêche pas de pouvoir avoir un problème avec le pricing ou les techhniques de vente sans remettre en question l'utilité du produit ou son "concept". :reflechis:

Le 14/02/2024 à 09h 55

Qu'ils fassent deux abonnements bien distincts à ce moment-là, l'un concernant les achats et l'autre pour les vidéos.
Payer 18$/mois juste pour de la vidéo sous prétexte que le prix comprend les avantages Prime sur le magasin Amazon...

Le 14/02/2024 à 10h 06

J'ai testé la mienne et elle est vulnérable.

De toute façon en démontant l'un des boitiers par curiosité, j'ai vu un PIC et me suis dit que c'était surement du keeloq, avec le flipper j'en ai eu le cœur net.

Par contre, comme c'est un code tournant, à chaque ouverture/fermeture avec le FlipperZero, il fallait ensuite faire autant d'ouverture/fermeture avec la télécommande pour arriver au même code...

Donc si tu actionnes ta télécommande hors de portée du récepteur, tu te désynchronise complètement ? :stress:

Heureusement, il y a le FlipperZero pour récupérer ça ^^

Le 12/02/2024 à 09h 49

C'est un problème bien plus global hélas causé par les vendeurs de solutions IT : faire croire aux personnes que c'est de l'informagique.

Grâce à ça, des gens croient que parce que leurs photos sont sur Google Drive, elles sont "sauvegardées", que le Cloud c'est magique ("t'as vu j'appuie et j'ai mon infra" - exposée aux 4 vents, mais ça c'est un détail), etc. OpenAI a aussi trop bullshit sur les capacités de ses produits.

Si les LLM sont puissants quand bien exploités, malheureusement trop de conneries sont dites autour. Et ce n'est pas une actualité uniquement axée sur l'aspect anxiogène du domaine qui va aider à apprendre à les appréhender intelligemment.

OpenAI qui survend chatGPT n'aide certainement pas en effet.
Ce n'est pas leur petit disclaimer en bas de page sur le fait qu'il "puisse se tromper" qui va éclairer les utilisateurs.

Le 16/11/2023 à 10h 00

Que connais-tu de la vie de cet enfant et de ses rapports avec ses parents ?



L’adjectif trans ne se rapporte pas d’office à la sexualité. Il s’agit du diminutif de transgenre et à ce que je sache, les enfants sont déjà confronté au fait d’avoir un genre attendu par la société. Il ne s’agit pas de jouer avec la sexualité de son enfant que de l’écouter et de ne pas le forcer à suivre un modèle qui ne lui correspond pas.



C’est étonnant de vouloir justifier des comportements connus et abjectes (la délation) en les comparant à des comportements problématiques (faire des tests sociaux sur son enfant) hypothétiques des parents. Que soutiens-tu réellement ? Il est normal de doxxer des personnes qui sont mal vu par une partie de la population qui manque totalement de compréhension et sont prête à nuire toute personne qui ne leur ressemble pas ?

Le 16/11/2023 à 09h 10

Tes exemples ne vont que dans le sens de son commentaire ;)

Le 16/11/2023 à 09h 26

Ça fait partie de la panoplie d’un medium de faire parler les morts.

C’est plus acceptable ? En quoi ça contredit le propos de Trooppper ?
Il serait intéressant de critiquer l’usage de l’AI remonté dans la news en usant d’argument valide et le plus objectif possible en montrant les dérives que cela peut amener et pas en requérant sans cesse à de fausses légitimités historiques ou traditionnelles.

Le 16/11/2023 à 09h 22

Merci, j’aurai pas compris pas trop sans vous, mosieur le professeur !

Le 19/09/2023 à 15h 49


bohwaz a dit:


Je pense que surtout, OVH a construit ses datacenters du nord à proximité immédiate de centrales nucléaires, donc c’est pas très dur de garantir que ça vient de là si t’es branché en direct avec EDF à la sortie de la centrale…


Non, justement, c’est impossible à garantir. Du point de vue physique, leur électricité provient tout autant de cette centrale que de toute autre centrale en Europe. En 2018, on a tous connu la même baisse de fréquence sur leur réseau européen suite à l’arrêt de la fourniture en électricité par le Kosovo. Quand on désigne un fournisseur pour un consommateur donné, on spécifie juste à qui on achète l’électricité.



Le réseau Européen est synchronisé et toutes les centrales participent à son fonctionnement de manière globale. De manière physique, la centrale EDF fournit l’énergie tout autant OVH que n’importe quel ménage dans l’Europe. Quand on dit qu’EDF fournit OVH, c’est que dans leur bilan, la consommatation d’OVH est retranchée d’une production spécifique d’EDF, c’est uniquement administratif.



Ca n’enlève pas le caractère vert de la consommation d’OVH de leur point de vue de consommateur. On ne parle pas de fournisseurs qui pourraient profiter du système actuel mais bien d’un consommateur qui s’engage à payer des sources vertes, ou du moins à être transparent sur le taux couvert par des énergies bas-carbone. Mais comme toujours, il faut trouver de quoi diminuer l’effort des autres…

Le 18/09/2023 à 06h 59

On ne peut que condisérer l’origine de sa consommation, sa consitution réelle n’est pas mesurable facilement et est plutôt constitué de l’ensemble des fournisseurs sur le réseau global. L’opposé de ton exemple (vivre sans aucune centrale fossile à 100km à la ronde) ne serait pas plus vert, l’énergie que vous consommez est constitué de l’ensemble des fournisseurs sur le réseau à hauteur de leur production. Si la production européenne est majoritairement fossile, alors votre consommation aussi, quelque soit votre localisation.



La seule solution est de vendre de l’énergie virtuelle dont le bilan total doit correspondre au bilan réel. Si le bilan est respecté, le fait d’acheter de l’énergie verte est effectivement verte. Lorsque le bilan n’est pas respecté, les déficitaires devraient racheter l’électricité aux fournisseurs excédentaires. On peut remettre en cause la mise en oeuvre de ces procédés de rachat qui peuvent ne pas pousser les fournisseurs verts à s’équiper correctement pour remplir leurs parts du contrat mais demander aux gens de payer pour l’énergie effectivement consommée (= même prix pour tout le monde, puisque l’énergie est constituée de l’ensemble des fournisseurs) ça consiste à finir dans un système sans concurrence et je ne pense pas que ça soit préférrable.

Le 17/09/2023 à 15h 14

C’est exact, et tu noteras que je ne parle pas de déplacement d’électrons mais de consommation électrique et d’énergie.



La notion de courant existe et elle emprunte déjà la route de moindre résistance. C’est le sens du début de mon commentaire ;)



J’essayais d’apporter un exemple pour expliquer que dire qu’il est inutile de vouloir avoir une consommation verte en sélectionnant un fournisseur vert parce que la centrale à côté de sa baraque n’est pas verte et que l’origine de l’énergie consommée est principalement fossile, ce n’est pas comprendre le fonctionnement du réseau électrique.