votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14079 commentaires

Le 06/11/2023 à 17h 19


Le Times souligne que ces « voitures autonomes » étaient en outre « soutenues par une vaste équipe d’exploitation, avec 1,5 travailleur par véhicule », à la manière de toutes ces IA qui doivent en fait recourir à des « travailleurs du clic » pour effectuer les tâches qui leur sont confiées, pourtant censées ne reposer que sur des logiciels automatisés :


Comme quoi, xkcd fut visionnaire.

Le 06/11/2023 à 17h 11


(reply:2163637:Hybrid Son Of Oxayotl)


C’est un sponsored TLD, une des catégories qui est spécifique à un type de communauté ou d’organisation.



On y retrouve aussi le fameux .gov réservé au gouvernement US.

Le 06/11/2023 à 16h 56


Le .fr est une extension de pays et, dans ce cas de figure, la longueur fait toujours deux caractères. « fr » pour la France, « it » pour l’Italie, « us » pour les États-Unis, « de » pour l’Allemagne, etc


Cela correspond en fait à la norme ISO 3166-1 alpha-2.




(quote:2163557:consommateurnumérique)
Je viens de découvrir que le .tv n’avait rien à voir avec la télévision : Les Tuvalu


Tu as aussi le très célèbre .io utilisé dans l’IT qui correspond au Territoire Britannique de l’Océan Indien. Cela avait fait l’objet de quelques controverses d’ailleurs.

Le 06/11/2023 à 06h 22


Wosgien a dit:


Tout à fait. Et arrêter de trouver que let’s encrypt soit de même niveau qu’un “vrai” certificat.


Qu’est-ce qui fait qu’un certificat Let’s Encrypt ne serait pas au même niveau techniquement ?

Le 03/11/2023 à 16h 37

Ca craint.

Le 04/11/2023 à 10h 26

Le pire c’est qu’on a vraiment frôlé la migration hier matin :D
En gros, le renouvellement des certificats des serveurs utilisait un login d’un dev qui est parti pour se connecter à l’api de Cloudflare.
En faisant le ménage dans les droits il y a quelques semaines, je n’avais pas l’info, je l’ai supprimé sans penser à mal.
On se réveille vendredi matin avec des alertes, on regarde, et après quelques palabres téléphoniques on se dit que tout ceci ne va prendre que quelques minutes, et que ce n’est pas si grave, ça sera résolu avant que PERSONNE ne remarque rien.
Pipou s’active en coulisses, et je me fais couler un café, en me disant que décidément, la vie avec un Pipou est bien douce.
Erreur.
Ce matin là, les APIs de Cloudflare sont en vrac, et ce depuis la veille. Le backoffice est à peine utilisable, et les commandes de renouvellement ou de nouvelles demandes de certificats ne passent pas.
Les gouttes perlent sur nos fronts - enfin sur le mien du moins - et nous réalisons que nous allons passer un sale moment.
On essaye de rediriger sur la bêta, avec des résultats variables.
Après avoir constaté que Cloudflare n’avait pas l’air de vouloir refonctionner, nous nous sommes résolus à repasser les serveurs dns chez ovh, et à recréer la zone ainsi que les certificats manuellement.
J’en ai profité pour lâchement tenter tout le monde, la release de lundi n’est pas loin, la bêta est presque fonctionnelle, les commentaires descendent, et pour ceux qui veulent économiser sur la biafine, fdorin a pensé à tout.
Las, Alex, in extremis, au beau milieu de notre réunion de crise, réussit à remonter nxi.
La mort dans l’âme, je renonce à mes funestes projets, et tout le monde souffle, sentant une shitstorm façon Ciaran s’éloigner vers le sud.

Effectivement c’est pas de bol, j’ai vu passer un post-mortem sur le blog de CloudFlare concernant un problème jeudi dernier. Mais bon, c’est toujours dans ces cas-là que t’as un enchaînement de merdes qui se cumulent.



Dans le thème de la tempête, on en avait fait les frais sur une plateforme il y a quelques mois où une bascule haute dispo était en train de se produire à cause d’un composant qui avait crashé. Sauf que c’était à ce moment-là qu’il y avait des fortes intempéries aux Pays-Bas qui avaient mise à mal la région West Europe d’Azure avec de fortes latences entre les zones et les régions. Au point où dans la comm’ Microsoft recommandait de faire un DRP vers North Europe pour les éléments les plus critiques.



Disons que la dernière fois qu’on a vu une comm’ de ce genre, c’était OVH avec Strasbourg :transpi:

Le 03/11/2023 à 12h 51

:inpactitude: (j’espère que ce smiley va rester ^^)

Je t’en prie :)




FraGG a dit:


J’aime bien l’idée, ça permet de voir d’ou peuvent venir les soucis avant de se retrouver vraiment dans l’brun :francais:


Ouais j’aime bien aussi et je l’ai déjà proposé une paire de fois dans les équipes où je bosse pour motiver à la migration d’une solution legacy mais personne n’est assez chaud pour le faire étonnamment.



Je me rappelle quand j’avais rencontré ça pour la première fois : GitHub avait désactivé la password authentication sur Git (quand ils ont passé au token-based) pendant une journée en amont de la désactivation finale.



Quand ton Jenkins a tous ses jobs qui se suicident en boucle, autant dire que ça nous a fait tout drôle :transpi:



Bon, rien à voir, mais n’empêche, NXI vous me devez une demi journée de travail…



… J’ai du bosser une matinée pour m’occuper bordel ! :sm:

Le 03/11/2023 à 12h 27

Retrouvé, ils appellent ça les Brownout Notice, en référence aux réductions / coupures électriques volontaires je pense.

Le 03/11/2023 à 12h 15


fdorin a dit:


[edit] Mais j’avoue, j’ai pensé la même chose ce matin :francais:


Blague à part mais ça me rappelle le Brown Day (je crois que c’est bien le nom) que GitHub pratique pour une fonction dépréciée. Du style une API ou autre ayant une date de fin communiquée. Ils désactivent la feature pendant une journée.



Un peu hardcore comme pratique, mais diablement efficace pour s’en rendre compte quand on a manqué l’info. Bon, pour l’avoir vécu au taff, le premier réflexe reste de rager.

Le 03/11/2023 à 12h 08

Bon allez, qui c’est qui a shutdown le serveur de la version actuelle pendant une matinée pour appuyer le fait qu’il faut accélérer la mise en prod de la nouvelle version ? Hein ? Hein ?



L’excuse du stagiaire qui a poussé en prod ça passe plus :p

Le 30/10/2023 à 20h 34

Semaine prochaine d’après l’article.




Et lundi prochain ?
(..)
Les commentaires retrouveront leur emplacement d’origine, en bas des articles.


Le 30/10/2023 à 19h 35


Si on vous met le thème sombre trop vite, vous ne lirez plus nos messages.


D’où le “poing” dev, je comprends mieux maintenant. :D

Le 03/11/2023 à 18h 58


eglyn a dit:


C’est le problème de laisser aux devs le soin de faire les interfaces, généralement, ça ressemble à rien :D


J’irai pas juste là, disons que c’est … Fonctionnel. Comme à chaque fois qu’on utilise des outils fait par des devs pour des devs. Le plus bel exemple que j’ai en tête c’est GitHub : hyper fonctionnel pour un dev, mais prends un peu de hauteur et de recul et c’est tout sauf un produit d’entreprise. Les options de gouvernance sont encore balbutiantes, la notion de gestion d’organisation (pas au sens orga GitHub, au sens orga d’entreprise) est une plaie, les params sont répétés avec une héritage pas forcément clair, et l’orga (GitHub cette fois) est un bordel monumental (et gérer plusieurs orga est une plaie).



Dans la petite analyse que j’avais faite des différents portails “join the fediverse”, j’avais surtout noté des défauts redondants :




  • D’abord, ils ne sont quasi jamais contextualisés à la langue du navigateur de l’utilisateur. Tomber sur un portail en anglais, ça fait fuir un non anglophone.

  • Ils sont présentés d’une façon trop technique (joinmastodon pense en premier à présenter c’est quoi un serveur : on s’en fout !)

  • Ils prennent beaucoup de place à expliquer ce qu’ils sont et pourquoi ils existent là où un Twitter ou autre va dans le vif du sujet

  • Ils ne pensent pas use case, ils pensent instances directement



Mais bon, c’est pas choquant vu que ça reste des produits majoritairement propulsés par des techos. Typiquement si Pixeldfed est un poil plus user friendly, c’est parce que l’outil s’adresse à un population moins orientée dev (photographes / artistes).



Mais ce sont des travers hélas très communs. Et perso je les vois moi-même à mon taff où les équipes techniques n’arrivent quasi jamais à discuter avec le métier parce que personne ne veut comprendre le point de vue de l’autre. La bonne vieille dichotomie du tech vs le métier.

Le 03/11/2023 à 17h 13

C’est un des gros défauts du fediverse : les annuaires proposés ne sont pas assez clairs pour trouver son petit près carré et ne pensent pas forcément aux choses les plus évidentes. J’avais fait un petit inventaire de tous ces défauts sur un article de blog y’a quelques semaines. En fait le principal souci est que ces outils sont fait par des tech qui pensent technique. Pas utilisateur.



Les changements pour qu’un portail soit plus user-friendly sont loin d’être insurmontables, il suffit juste de présenter la chose de manière plus accessible. Typiquement, j’apprécie la façon dont PixelFed présente les instances. Il manque des filtres comme le fait de savoir si l’instance accepte encore des profils, mais en dehors de ça, il y a une présentation normalisée et très accessible. La page descriptive est même super bien faite, presque commerciale.



Centraliser la gestion des utilisateurs est impossible : cela va à l’encontre du concept même. C’est comme si tu disais de centraliser la gestion utilisateurs des services d’email.



Il ne faut pas oublier que l’architecture même du Fediverse est conçue pour que chacun puisse monter son propre domaine… Soit ce que permettaient Internet et le Web depuis leur création jusqu’à ce qu’ils se fassent privatiser par les grandes entreprises.

Le 03/11/2023 à 12h 22


(quote:2163136:skankhunt42 )
Pas possible de monter une plateforme mondiale sans payer à un moment donné et comme pour du P2P quand c’est décentralisé dès qu’il y à plus de source la vidéo ce retrouvera introuvable.



Par contre je comprend pas bien le délire des instance, si je publie une vidéo sur l’instance A elle ne sera pas disponible sur l’instance B ? Si c’est le cas alors c’est vraiment pas terrible.


Ce sont des concepts différents. Si Youtube tombe, 100% de son contenu est indisponible. Si Instance Machin sur le fediverse tombe, c’est le contenu de Instance Machin qui est indisponible.



Même si je pense qu’avec le côté distribué de PeerTube il peut y avoir une certaine résilience, ça s’asséchera faut de source comme le P2P classique. On est sur des architectures différentes donc les enjeux ne sont pas les mêmes.



Perso je ne considère pas le fediverse comme mieux ou moins bien que les médias sociaux centralisés ou ayant vocation à les remplacer. Je considère ça comme différent, c’est tout.

Le 02/11/2023 à 16h 51


(quote:2163061:skankhunt42 )
Question con : Si demain ce genre d’alternative libre reçois autant de visiteur que youtube, il pourront toujours gérer la chose ou alors ils auront cruellement besoin d’argent ?


C’est aujourd’hui comme pour Mastodon, les instances vivent principalement de donations/deniers de contributeurs. Après, l’objectif de PeerTube est aussi de répartir la BP entre les spectateurs qui partagent les morceaux de la vidéo sur le réseau en même temps qu’ils regardent.



La différence est qu’il faut raisonner décentralisé et non centralisé. Donc le financement, c’est le problème de chaque instance et non d’une seule. Là dessus, c’est à la liberté de chacun. Typiquement si l’outil n’a pas de feature en ce sens, rien n’interdit de mettre de la pub dessus. C’est un logiciel libre après tout.



Perso je donne à l’instance Mastodon où je suis pour l’aider à supporter ses coûts. Et les admins de celle-ci sont transparents sur les coûts d’infra/BP/CDN et les montants obtenus. Les excédents dégagés sont utilisés pour envoyer des donations à des projets libres après vote de la communauté.

Le 02/11/2023 à 10h 52


(quote:2162983:127.0.0.1)
Youtube aurait plein de moyens techniques pour complexifier le boulot des devs de Adblockers. On ne peut que supposer que Youtube s’en foutait un peu… du moins jusqu’à présent.


Perso j’avoue que ça m’étonne de voir ça. Vu qu’ils maîtrisent le flux streaming de bout en bout, je ne comprends pas comment ils peuvent ne pas l’intégrer directement au flux vidéo.



Mais bon, après je dois avouer que je m’en fous.



Perso j’ai récemment eu la fameuse pop-up. Mais ça n’a rien empêché (je n’ai que le bloqueur natif de Vivaldi).



Et de toute façon je regarde de moins en moins de contenus sur Youtube.



Et passe principalement par Invidious. Donc le jour où ce front ne fonctionne plus, ben je n’utiliserai plus.

Le 02/11/2023 à 09h 27


Trooppper a dit:


Vite, créons un Youdiverse décentralisé et gargarisons nous pendant des années à nous convaincre que c’est le futur de la video en ligne qui detronera la grosse plateforme ! :yaisse:


Ca existe déjà => PeerTube.

Le 03/11/2023 à 12h 14

La manipulation des tarifs de manière à ce que le consommateur n’ait aucun point de repère est une pratique courante dans le retail. Au même titre que l’optimisation tarifaire par algorythme est aussi utilisé dans le domaine.



Cela dit, il semble qu’ici Amazon soit passé au next fucking level.



D’ailleurs un truc que j’ai observé de mon côté avec Amazon KDP, ce sont des pratiques que je trouve plutôt crades aussi en matière de concurrence. Typiquement, il n’est pas possible de définir des périodes de promotion sur ses livres sans que celui-ci ne soit sur KDP-Select. Et pour ça, il faut s’engager à publier exclusivement dessus.



Là où Kobo n’impose rien de tout cela et permet de définir des périodes d’offres commerciales tout en profitant de la visibilité des plateformes tierces où ils publient et de l’éligibilité des livres à l’offre par abonnement.



De ce fait, lorsque j’en définis, les acheteurs sur Amazon n’en profitent pas à cause de ces restrictions. La seule astuce à ma connaissance étant de modifier manuellement le prix de l’e-book.

Le 02/11/2023 à 16h 39


Winderly a dit:


C’est certain mais bravo pour ta patience, pour avoir argumenté et sourcé. :yes:


Pour moi c’était le plus important pour éviter de voir des mensonges se répandre.

Le 02/11/2023 à 12h 32


(quote:2163022:skankhunt42 )
A partir du moment ou de l’argent est en jeu c’est de la prostitution, que tu te touches devant la caméra ou que tu te prennent une bite dans le cul irl, valable aussi pour le porno.


…. Non !



J’arrête là, c’est une perte de temps.

Le 02/11/2023 à 12h 20


(quote:2163015:skankhunt42 )
La seule différence entre une prostitué irl qui est rémunérée à l’acte et une cam girl qui passe en privée avec un tarifs pré établie c’est l’absence de relation physique.


Et c’est la différence qui fait que ces sites ne rentrent pas dans ce cas de figure. Lis ce que j’ai donné, c’est le code pénal. Et j’y ajoute un complément, dans la mesure où le code pénal ne défini pas la prostitution : un arrêté de la cour de cassation du 27 mars 1996 qui donne deux informations intéressantes :




” alors que, d’une part, la prostitution est l’acte par lequel un individu consent habituellement à des rapports sexuels avec un nombre indéterminé d’autres personnes moyennant rémunération ; qu’il en résulte que n’importe quel acte de lubricité ne peut être retenu comme élément constitutif de prostitution ; que, dès lors, la cour d’appel, ne pouvait, sans donner de la loi pénale une interprétation extensive, décider que la prostitution était caractérisée, quelle que fût la nature des actes de lubricité accomplis ;


Puis elle en donne une définition :




Qu’en effet, la prostitution consiste à se prêter, moyennant une rémunération, à des contacts physiques de quelque nature qu’ils soient, afin de satisfaire les besoins sexuels d’autrui ;


Dire qu’un modèle, ou un couple, qui s’exhibent sur un site de webcam pour adulte c’est de la prostitution tout ça parce que le public se touche en regardant, ça reviendrait à dire que tous travailleur du sexe est prostitué dans le tournage de films pour adulte. Et c’est faux.



Par contre, il y a déjà eu des mises en examen dans le monde du X pour proxénétisme. Mais j’ignore se depuis il y a eu condamnation cela dit. Mais là c’est parce qu’il y a eu des plaintes en ce sens, ce qui ne signifie pas pour autant que l’activité est du proxénétisme.

Le 02/11/2023 à 11h 04

Chaturbate, Cam4, etc, sont considérés comme des sites pornographique. La différence étant qu’ici ce sont les modèles qui s’auto produisent dans la plupart des cas (mais il y a aussi des pornstars dessus qui le font dans le cadre de leur métier via le label où elles travaillent).




(reply:2162995:skankhunt42 )


La prostitution est le fait de proposer des relations sexuelles à un tiers en l’échange d’une rémunération, d’une promesse de rémunération, ou d’un avantage ou la promesse d’un avantage en nature.



Les personnes pratiquant les webcam adulte en ligne ne proposent pas de relations aux spectateurs. Ils se contentent de regarder et d’envoyer des pourboires. Ce n’est donc pas de la prostitution. Le travail du sexe reste légal en France. C’est le proxénétisme et le fait d’être client de prostitués qui est sanctionné par le code pénal.

Le 02/11/2023 à 12h 30

Si d’un côté il y a le cadre juridique, de l’autre les trois derniers paragraphes sont vraiment dérangeants de mon point de vue. La tournure me donne l’impression d’un côté pour ainsi systématique où lorsqu’il y a fausse couche passé le délai légal de l’avortement, il y aurait enquête pour savoir si s’en était un.



Notamment le dernier paragraphe qui est dérangeant pour moi :




Auprès du média, la professeure de droit à l’université de Bristol Sally Sheldon rappelle qu’il est illégal pour les professionnels de santé de prélever des échantillons de fluides corporels sans le consentement éclairé du patient.


J’ai l’impression que ces enquêtes sont menées sans même que les femmes concernées ne soient informées. Comme si elles étaient par défaut considérées comme ayant avorté en dehors du délai autorisé.



Est-ce que c’est la loi là bas qui oblige à enquêter sur toute fausse couche ou bien un excès de zèle des autorités ?

Le 02/11/2023 à 07h 24


Développer et déployer des mécanismes fiables d’authentification et de provenance du contenu, lorsque cela est techniquement possible, tels que le filigrane ou d’autres techniques permettant aux utilisateurs d’identifier le contenu généré par l’IA.


Si la plupart des points sont des principes de bon sens pour contrebalancer le très rapide développement et intégration des produits de l’IA dans le quotidien, celui-ci fait un peu vœu pieu à mon sens.



Pour les images et animations générées, pourquoi pas. Même si elles continuent d’avoir des défauts repérables, il faut déjà avoir un certain recul du résultat de ces outils pour le voir. Après, c’est aussi le photographe amateur que je suis qui parle, ayant appris par cette activité à quel point les images sont dénaturées et saturées en post-traitement - saturation de couleurs, contrastes élevés, lumière irréelle, etc pour faire “whaoo”. Les photos générées par les smartphones sont une horreur à ce niveau, mais le public est habitué à ces images. Donnez-lui un reflex/hybride en mode manuel, il va dire que les photos sont “pas belles” car les couleurs sont fades… Bah non, elles sont vraies. Et comme l’IA générative a été entraînée là dessus, elle produit le même résultat.



Cela dit, ça n’est qu’une démarche de bonne volonté. Comment contraindre l’intégration de ce principe à l’échelle mondiale ? Certes, les géants de la tech pourront le faire, mais si les implémentations libres ou autre n’ont pas envie, ils ne le feront pas. Et cela restera des outils potentiellement détournés à des fins malveillantes comme beaucoup d’autre le son.



Quant au texte généré, OpenAI a laissé tomber et beaucoup se sont cassé les dents. On peut reconnaître du texte produit par GPT (son style pompeux, lourd, et sûr de lui le trahissant rapidement), mais si celui-ci a reçu les bonnes instructions, il peut parfaitement produire un message concis et simple qui peut tromper.



Après, d’un point de vue plus cynique, je pense aussi que les chefs d’Etat et autres représentants politiques sont impuissants pour réguler ces progrès technologiques. Et si les pays du G7 veulent réguler leur usage, le reste aura parfaitement le droit d’en avoir rien à cirer. Typiquement, les fermes à désinformation existaient avant l’IA, et elles existent pendant le boom de celle-ci, et elles existeront encore après quand on sera passé à autre chose.

Le 02/11/2023 à 07h 11

J’avais aussi en tête l’aspect économique même si c’est du bout de chandelles. Après, effectivement, le câblé perd de l’intérêt face au Wi-Fi même si à titre perso je préfère quand même une liaison filaire que j’estime plus fiable.



Après au pire ça reste un adaptateur à brancher, mais c’est plus contraignant.

Le 01/11/2023 à 18h 55

C’est vrai qu’ils sont pas mal les Tuxedo. J’ai regardé pour un “équivalent” à un Macbook, on peut aller vers ce modèle. Question prix, c’est plus léger, on passe de 16 Go à 32 avec seulement 50 euros (en DDR5), il est vachement évolutif. En revanche, oh surprise, il n’a pas de port ethernet non plus (un adaptateur USB est fourni).



Reste le subjectif : la qualité du son, le bruit du ventilo, l’autonomie, entre autres choses.

Le mien a un port ethernet, mais il s’agit de ceux qui ont un clapet pour les ouvrir en entier. La prise fait l’épaisseur du portable. Cette absence de port ethernet ne serait pas liée à ça ? (j’ai pas regardé les dimensions du modèle que tu as indiqué et je connais pas celles d’un port Ethernet)



Le fait de vouloir une machine très fine et légère implique des choix, et je pense que la suppression d’un port qui a une certaine épaisseur doit en faire partie au profit du tout Wi-Fi. Mon précédent laptop pro, un Asus de 2018, en était déjà dépourvu. Je l’ai retrouvé avec le Tuxedo pour le coup.

Le 01/11/2023 à 16h 49

Tuxedo Computers c’est de la bonne came aussi. J’en utilise un à titre pro depuis bientôt trois ans sans flancher, il tient la demie journée sans sourciller.

Le 01/11/2023 à 07h 46


Ryc a dit:


Oui enfin, le soucis c’est qu’un manager dois surtout gérer une équipe. Et s’éloigner de la technique, la hauteur et la capacité à prendre du recule (comme un architecte - en dev logiciel par exple), ce n’est pas le rôle d’un manager.


C’est pas ce que j’ai voulu dire, mais j’ai du mal l’exprimer. En faisant ce parallèle avec le rôle que j’ai, j’indiquais seulement que “monter” en management demandait aussi de se détacher de la posture d’expertise. Car j’ai connu des managers qui étaient des tech lead ou autre pointures. Malheureusement ils firent de mauvais managers car ils imposaient des visions et des choix basés sur leur expertise et non celle de leur équipe.



Et moi-même en architecture j’ai aussi eu ces biais, ce fut difficile au début de me détacher de ça.




Dans beaucoup d’entreprise, pour gagner plus il faut quitter la technique. Ca donne très rarement quelque chose d’optimal.


Oui c’est pour ça que j’ai dit en #11 que j’avais opté pour le freelancing qui permet d’allier rémunération valorisante et continuer de travailler dans la technique. Là où en SSII (par exemple), le seul moyen est effectivement de monter vers la sacro-sainte voie du management.



Mais ce sont aussi des raisons multiples : vendre un profil avec une très forte expertise technique (et à gros salaire) est plus difficile car le TJM sera élevé et les missions de courte durée. Donc le profil difficilement “rentable” pour la boîte. Biais causé aussi par la valorisation inférieure de la compétence technique à la compétence managériale (le client aura moins de complexe à prendre un CP fusse-t-il plus cher qu’un dev ou architecte, perso j’ai aussi connu ça… Même si en ce moment la tendance est à la baisse un peu partout).



Là où en freelance, un TJM même inférieur aux prix du marché (sans être trop délirant évidemment) permet de conserver une rémunération correcte.

Le 30/10/2023 à 19h 19


Ryc a dit:


et un très bon dev ne fait pas forcement un bon manager…


C’est valable pour la plupart des professions qui prennent un peu de “hauteur” par rapport à l’opérationnel. En exemple personnel, un architecte n’est pas supposé être un expert en tout mais quelqu’un capable d’avoir une vision globale et de prendre du recul sur la technique et de mettre en compétition différentes approches.



A l’inverse de techos “purs” qui auront tendance à foncer le nez dans le guidon dans un choix pas forcément éclairé mais plus fondé sur des affinités.



Ca peut faire rire, mais prendre du recul et de la hauteur c’est pas inné.

Le 30/10/2023 à 12h 22

Pour ça que j’ai opté pour l’option du freelancing perso. Ca offre de bons revenus et ça permet de valoriser son activité.

Le 31/10/2023 à 17h 25

Comme pour Twitter à ce moment-là, je préfère dans tous les cas envoyer une piecette à mon instance Mastodon.

Le 31/10/2023 à 06h 15


ndjpoye a dit:


GitHub Copilot Chat est “en retard” par rapport à “Bing GPT”. Moins pertinent, comprend moins bien ce que je veux (à question “copier/coller”). Mais, ça ne veut pas dire que dans l’avenir ce ne serait pas mieux.


Il est encore en beta donc forcément il va s’améliorer. Après de ce que j’ai pu voir, il est basé sur GPT-4 et non Codex comme le Copilot actuel. Donc forcément y’a des différences je pense.




Donc super utile mais pour moi, faut bien relire ce qu’il propose :)


C’est même indispensable et là dessus que ce soit la comm de l’éditeur et l’outil en lui-même, ils insistent lourdement ce sur point.



J’ai pu constater moi-même la capacité de Copilot Chat à proposer un développement itératif en relation avec le besoin. C’était très cohérent, progressif, vraiment bien foutu. Sauf quand à un moment il s’est auto bloqué en me proposant une question suivante pour laquelle il a refusé de répondre :transpi:

Le 30/10/2023 à 16h 39

Pour faire un autre parallèle avec un métier qui était censé disparaître, celui d’admin sys avec le Cloud. C’était annoncé en grande pompe un peu partout. Au final on a toujours des admin système … Ils ont juste été renommés avec un nom un peu plus fancy (“cloud ops”, “sys ops”, ou encore mouton centipede “devops”, et désormais “platform engineer”).



Au même titre que j’ai aussi connu l’externalisation à outrance de l’IT où on te faisait comprendre que t’étais bien gentil et mignon, mais qu’un indien c’était moins cher. Les clients que j’ai vu faire ça sont revenus à réinternaliser car ils n’avaient plus aucune connaissance de leur métier. Je dis bien de leur métier, même pas de leur IT. Quand un service IT compte 95% de presta, c’est déjà un problème en soit. Sauf que comme l’IT est un centre de coûts et non un investissement, 95% de presta c’est la possibilité de virer 95% de son personnel sans être emmerdé en cas de difficulté financière. C’est en ce moment le cas chez plusieurs grandes entreprises dans le Nord.



Et tout ça, c’est que des décisions de managers court-termiste, là dessus on est d’accord. Raison pour laquelle je considère que l’IA ne changera rien à ces décisions absurdes, elles auraient eu lieu de toute façon peu importe le nouveau truc à la mode.



Donc dans tous les cas, oui, l’IA va transformer et réduire la voilure de certains métiers. C’est évident et je l’ai déjà dit ici plusieurs fois et on a vu des articles en ce sens. Mais Copilot remplacer un dev, non, pas dans son état actuel.



Surtout quand on parle de modèles pre-trained, qui sont donc incapables de réellement créer de toute pièce et ont besoin d’une énorme quantité et variété de données pour être efficaces. Les études sur le sujet avaient justement évoqué la dégénérescence des LLM lorsqu’ils sont entraînés de manière consanguine. Donc en l’état actuel de l’IA générative, elle ne peut clairement rien remplacer puisqu’elle entraînera le même résultat qu’une externalisation de son IT : perte de connaissance et compétence.

Le 30/10/2023 à 14h 09

Merci pour le retour d’XP. Je pense que pour des devs expérimentés il peut effectivement avoir un intérêt dans sa version actuelle car il fait gagner du temps. Par contre pour l’assistance à la conception et la fourniture d’un guide, typiquement j’ai vu celui de Copilot Chat qui est similaire à ChatGPT.



Typiquement, il propose lui-même une trame où un peu comme Bing Chat, il propose les questions suivantes. Et sur le projet de test que j’avais fait, elles étaient plutôt logiques et avançaient d’une manière itérative graduelle.



Je vois aussi ce genre de travers, et pour le coup je ne pense pas que ce soit les liés aux outils. Ces problèmes d’organisation sont purement humains et issus de manager qui considèrent l’IT comme un coût et non un investissement.



Je reviens cependant sur ma réponse qui était un peu trop simpliste : Oui, Microsoft te vend GitHub Copilot comme un outil de productivité et te permet même d’estimer un ROI avec une matrice de calcul (et grosso merdo, il revient à environ 0.5 ETP dans les estimations que j’ai pu avoir). Mais in fine, ils ne vendent pas ça en tant que remplaçant des devs, c’est même le discours inverse et globalement celui qu’ils ont sur l’IA (et je le trouve plutôt cohérent malgré le bullshit ambiant usuel) mais bien comme outil d’accompagnement.



Typiquement, je considère le Copilot actuel comme peu utile de ma fenêtre car je ne suis pas dev. J’ai du mal à l’utiliser et ne vois pas en quoi il m’aide par rapport à mes activités. Et ayant testé sa version Chat, clairement un non dev ou encore un junior ne sauront pas l’utiliser. Et dans tous les cas, Copilot reste sujet aux limitations des LLM. Typiquement, si on travaille dans une techno récente, il risque de n’être d’aucune aide car inconnue ou méconnue de son modèle.



Bref, remplacer un dev par Copilot, c’est comme remplacer un dev par du copier/coller Stackoverflow : merde absolue garantie.

Le 30/10/2023 à 12h 38


(quote:2162476:127.0.0.1)
Je ne suis pas inquiet. MS présentera Copilot aux entreprises comme un moyen d’être plus performantes… Ce que les entreprises traduiront par pouvoir réduire leurs équipes de dev sans perdre en productivité. Et hop.


Pour le coup, c’est pas le discours qu’ils portent.

Le 30/10/2023 à 12h 37


l’extension développée par OpenAI


L’expression n’est pas fondamentalement fausse, mais un poil maladroite. GitHub Copilot est issu un partenariat entre GitHub et OpenAI (avant même celui avec Microsoft) et le modèle de celui-ci est Codex. Codex est un modèle fine-tuned basé GPT-3 spécialisé pour produire du code informatique.



J’avais vu aussi cette info, et ça m’a fait mettre en perspective l’insistance de Microsoft pour vouloir nous le faire prendre. Sauf qu’en l’état, j’ai eu des retours très contrastés d’une expérimentation de GitHub Copilot par des devs à qui on a donné l’accès. Cela allait du “utile, efficace” à “j’ai perdu mon temps avec”. Et de ma fenêtre, pour moi l’actuel Copilot est une auto-completion de luxe. Je préfère largement ChatGPT.



Par contre, Copilot Chat est beaucoup plus intéressant (et je l’ai testé). Et vu les quelques présentations que j’ai pu avoir par MS ou GitHub sur celui-ci, l’intégration à la plateforme promet d’être intéressante. Mais clairement il sera pas à 10\(/19\) pour les personal et business accounts. Copilot Chat risque d’être plus cher je pense car vu la taille des contextes qu’il manipule, il doit coûter une blinde à l’usage.



Au sujet de l’intégration des diverse “Copilot” de Microsoft, je pense qu’ils tentent la carte de l’économie d’échelle en diluant et mutualisant l’usage des modèles pour espérer que ce soit un poil rentable avec du premium en soutien. Clairement, l’IA générative coûte encore très cher à faire tourner à l’échelle (suffit de voir le pricing côté Azure Open AI pour s’en rendre compte - concernant les tokens considérez que 1000 tokens c’est environ 750 mots anglais)).

Le 30/10/2023 à 12h 45

Des tests que j’ai fait de mon côté, non je pense que “le style photojournalisme” c’est pour la mise en scène (médecin à gauche, enfant à droite, pose, etc). J’ai eu les mêmes résultats avec et sans.

Le 27/10/2023 à 18h 47

J’imagine que OpenAI a du fine-tuning un poil plus diversifié.



Perso j’ai essayé avec SDXL mais le modèle testé avait les mêmes biais. Et j’ai pas eu l’envie d’en essayer douze mille autre.



Sinon GitHub a publié ce jour un billet de blog intéressant sur les défauts des LLM en expliquant comment ils se produisent.

Le 27/10/2023 à 15h 29

Elle met surtout en exergue les biais de nos sociétés qui nous sont souvent invisibles (cf le commentaire de serpolet). Ce n’est pas que l’IA qui doit être corrigée, mais l’humain en premier lieu qui doit prendre en compte cet état de fait.



Que ce soit dans l’entraînement, mais aussi dans l’usage de l’outil.

Le 27/10/2023 à 12h 05


zefling a dit:


Ça montre aussi que les IA ne dépasse pas le jeu d’entrée… donc son incapable d’“imaginer” une scène trop éloignée de ce qu’elle a eu en entrée.


C’est normal cela dit puisque l’entraînement de l’IA est basée sur un dataset d’entrée et un dataset de contrôle.



C’est pour ça que la construction d’une image complexe se fait en plusieurs étapes via l’inpainting. Même si SDXL s’est beaucoup amélioré en composition d’image, il reste encore assez limité.



Dans le cas présent, ça démontre surtout que l’entraînement est fait sur des jeux de données qui n’intègrent pas assez de diversité pour éviter de tomber dans ces biais. Mais…




En fin d’article :



« […] la figure du sauveur représenté par un homme blanc, en position de domination, relèvent les commissaires. La réalité du terrain est tout autre puisque 95 % des humanitaires ne sont pas des expatriés, mais font partie du pays. »


Comment lui demander quelque chose que l’humain est lui-même dans l’incapacité de concevoir ?



Bref, je ne le répéterai jamais assez : l’IA n’est pas magique.

Le 30/10/2023 à 12h 42

Pas surprenant. Je m’étais dit la même chose des formulaires qu’OpenAI avait lancé suite aux injonctions de l’autorité de protection des données italienne.

Le 30/10/2023 à 12h 26


Google et Amazon y voient une sérieuse possibilité de concurrencer l’alliance entre le créateur de ChatGPT et Microsoft.


Fun fact : Amazon Web Services a fait partie des cofondateurs de la joint-venture ayant créé OpenAI.



Ajouté au fait que c’est Google qui a créé Transformer (le T de GPT).



Qui investissent pour concurrencer le partenariat Microsoft/OpenAI.



Je trouve ça délicieusement ironique en fait.

Le 30/10/2023 à 06h 20

Oui et non. J’ai eu la chance de visiter l’usine de fabrication du réservoir principal et des moteurs aux Mureaux. Les A5 étaient fabriquées un peu à la chaîne (de mémoire, 3 ou 4). Avoir deux Gen de fusées ne me semble pas être quelque chose d’insurmontable, surtout lorsqu’on voit l’état d’avancement d’A6. Bien sûr, ces fusées sont tirées one shot. Mon parallèle faisait plus référence à la maturité de l’outil industriel.
Maintenant, je ne suis pas un expert en la matière et si un sachant qui traine par ici pouvait éclairer sur le pourquoi du comment ;)

Ariane 6 c’est quand même une tout autre architecture. Même si dans les faits ça reste des gros réservoirs empilés les uns sur les autres, je pense qu’une usine spécifiquement conçue pour un lanceur aura du mal à en faire un autre. J’avais cru comprendre que le procédé de fabrication d’Ariane 6 avait été pas mal changé pour réduire ses coûts.



Après, je pense qu’ils payent aussi des choix industriels d’un autre temps.

Le 30/10/2023 à 06h 14

Bien reçu ! :chinois:



Oui oui, à mon retour :transpi:

:yes: ça me laisse le temps de paufiner le sujet.

Le 29/10/2023 à 09h 49

Hé toi là !
T’es pas censé être en vacances ???
Je vais avoir des ennuis moi :pleure:

J’en profite lâchement, en l’absence du rédacteur en chef qui pourrais-je joindre pour soumettre un contenu sur lequel je bosse ? Notamment pour discuter des modalités/exigences/toussa.

Le 28/10/2023 à 16h 19

De vieille mémoire de moi, WP est capable de planifier une publication, donc avec le changement de CMS ça devrait vous soulager un peu. Genre publier le batch préparé la veille et l’enrichir éventuellement dans la matinée de nouveaux contenus.



D’ailleurs il me semble l’avoir proposé à une époque, mais une multi publication pour celui-ci serait intéressante. Un lot préparé la veille qui est publié à 7h, et un second publié à 13h par exemple qui intégrerait quelques ajouts de la journée. Et pourquoi pas un troisième le soir vers 18h par exemple.



Avec la publication planifiée, il vous suffit de préparer tranquillement les articles et les mettre dans le lot. Et ça donne aussi un côté visible avoir de l’ajout de contenu régulier. Pendant les périodes creuses ou vacances, il suffit de diviser les contenus pour maintenir le rythme (ou même ne rien publier si y’a rien à publier).

Le 28/10/2023 à 12h 09

Du moment qu’il ne confond pas avec l’enseigne japonaise Muji, passer ses vacances dans une boutique parisienne doit pas être terrible :transpi:

Le 27/10/2023 à 08h 50

Moi j’habite pas loin d’un gros parc de biotech (et là ca demande des labos, etc.) : ca a pris 3 ans. Parce que construit sur un ancien site industriel
Sur un sujet hyper mouvant comme celui ci où en plus tu cherches a rattraper un gros retard, tu ne t’installes pas dur un lieu qui demande des annees de pelletage avant de poser la 1ere pierre

Ca dépend du projet, typiquement le quartier Euroatechnologies de Lille (celui que je mentionnais) a aussi un énorme passif industriel qui a nécessité de raser la moitié de celui-ci (littéralement).



Pour ça que leur projet de 2027 (donc 4 ans) me paraît pas déconnant quand je vois que ça a mis plus de dix ans ici. Après, difficile d’évaluer le plan projet sans détails : un premier bâtiment du campus peut déjà pop rapidement et être suivi par les autres. Typiquement à Euratechnologies, les bâtiments poussaient sur deux ans environ.



Et je pense que dans tous les cas le vivier des travailleurs de l’IA ne se trouve pas pas dans une roulotte sur un parking à attendre que la maison soit construite :D

Le 27/10/2023 à 08h 24


timanu69 a dit:


Comme quoi l’IA fabrique des emplois….


Comme tout forme d’industrialisation et d’automatisation.



Elle en détruit d’un côté (les emplois qu’elle remplace), mais elle en créé d’autre pour ses propres besoins ou par effet collatéral.




Trooppper a dit:


2027 pour un projet de parc industriel ???? C’est VRAIMENT long !


J’habite dans une ville où se trouve un des plus gros incubateurs de start-ups en Europe. Ce parc (toujours en cours d’évolution) c’était + de dix ans de réurbanisation avec dernièrement tout un campus construit dedans sur 2 ou 3 ans.