J’imagine déjà Flock me dessinant en Judge Dread en train de hurler « La Ligne, c’est moi ».
Encore une prophétie qui va se réaliser je sens bien.
Trooppper a dit:
Et pourquoi pas sur certains sujets, de temps en temps : 2 piges cote à cote, rédigées par 2 redacteurs ayant des vues différentes sur le sujet…
C’est clairement ce qu’il manque pour éviter les biais causés par les partis-pris.
Prendre parti sur un sujet n’est pas une tare, l’objectivité absolue n’existant pas. En avoir conscience est par contre un exercice très difficile, comme la remise en question et l’auto critique. Je pense que malgré la blague Judge Dredd, vous y êtes ouverts. Sinon cet article et avis consultatif n’aurait pas été publié.
Comme je l’ai déjà exprimé, je n’apprécie pas votre traitement du sujet de l’IA que je trouve biaisé par une opinion négative sur le sujet (le récent article parlant encore de “perroquet probabilistes” démontre un avis réducteur pour moi, basé sur une seule ligne de pensée quand bien même c’est la citation d’un article scientifique le concernant). Mais le risque est de biaiser votre lectorat en ne leur donnant qu’une seule ligne de pensée. Si ce n’est pas votre cas, c’est tout de même une frontière très mince avec la désinformation.
Pour faire un parallèle avec College Humour et son fameux “If Google was a guy”, rappelez-vous la scène de la nana qui demandait si les vaccins causaient l’autisme. “Google” lui tend 150 000 résultats disant que non et un seul disant que oui, elle prend le oui en disant “je le savais”. C’est caricatural, mais c’est un risque bien présent quand on s’enferme dans un unique parti pris.
Je pense que des articles ayant des points de vue différents, pas forcément contradictoires mais rien que le prisme de lecture pouvant varier d’un journaliste à l’autre, serait une valeur ajoutée non négligeable à votre ligne éditoriale. Un sujet ne peut être traité sur un unique point de vue, c’est déjà ce que je reprochais à Marc Rees malgré la qualité et précision de ses écrits : ça transpirait, voire dégoulinait de son opinion personnelle. Durant l’ère Hadopi, aurait-on vu un article expliquer la problématique du point de vue des représentants des sociétés de défense du droit d’auteur ? Je ne pense pas.
Pourtant même si on ne l’accepte pas, un point de vue divergent, voire contradictoire, est toujours bon à prendre. Sans le tourner en dérision, car oui, c’est vite arrivé et ça a déjà eu lieu ici par le passé. On ne doit pas chercher qu’à lire ce qui va dans notre sens, sinon c’est la foire aux bulles de pensées comme les médias sociaux l’ont fait. Je pense aussi qu’il y a un autre travers plus global de nos jours qui est qu’un échange de point de vue devrait être une confrontation dans le but de faire accepter son opinion à l’autre.
Non, on peut exposer un avis, une opinion, sans chercher à convaincre. Au même titre que comprendre n’est pas excuser (travers trop fréquent dans les débats en ligne).
Pour répondre aux questions :
Pensez-vous que nous devrions limiter ou arrêter certaines thématiques ?
Non.
Devrions-nous au contraire renforcer certaines thématiques ou en lancer de nouvelles ? Si oui, lesquelles ?
Je trouve la ligne éditoriale équilibrée. Éventuellement un peu plus de visibilité sur les solutions technique européennes qui existent pour contrebalancer un biais et une idée reçue de “y’a rien en Europe il n’existe que des solutions US”. Je sais que vous l’abordez de temps en temps, mais je pense qu’une cartographie serait un dossier passionnant à traiter et faire découvrir des petites perles. J’avais fait l’exercice il y a une paire d’années pour mon blog, à mon échelle.
Nos articles sont-ils souvent trop longs ?
J’aurais tendance à dire oui, mais moi-même j’ai aussi tendance à m’étaler avec des écrits à parfois 20 minutes de lecture estimés sur mon blog. Donc je sais que c’est un exercice difficile.
(pour preuve ce commentaire…)
Faut-il rouvrir la salle B4 ?
Le client n’a pas souhaité répondre à cette question.
(quote:2160484:consommateurnumérique) Le fond blanc est utilisé par la plupart des sites de presse. Ça vaut rien comme reproche ou comme revendication.
Pire encore, y’a pas de dark mode sur la presse papier
Le
21/10/2023 à
08h
15
jpaul a dit:
Vous êtes au courant qu’il existe une super extension qui s’appelle Dark Reader, dispo sur tous les browsers, même mobiles et qui évite aux développeurs de sites web de faire deux fois le travail de design ?
(je l’ai aussi signalé plus tôt dans le fil de message mais ce rappel est le bienvenue)
Et qui, accessoirement, te permet d’avoir le contrôle et de ne pas attendre que ça tombe tout rôti dans le bec.
Je pense qu’avec l’IT papa “je m’occupe de tout mon poussin t’en fais pas” auquel les grandes sociétés de la Tech nous habituent, les gens oublient que l’outil informatique est d’une puissance insoupçonnée en matière d’usage et de personnalisation.
T’as pas un peu fini de poster le résumé de ma vie professionnelle ?! Namého !
A une époque, certains auraient fourni un css personnalisé façon userstyles.org sans pour autant passer 2 heures.
Pour le coup j’ai proposé deux petites modifs juste en triturant le CSS via les outils de dev sur GitHub. Mais oui, je pense que les développeurs seraient ravis d’avoir des propositions.
Sinon, un autre truc qui manque dans la beta actuelle, ce sont des infobulles explicatives quand on passe le curseur au-dessus de certaines icônes dont on ne comprend pas forcément la signification
Je l’ai signalé sur leur issue tracker sur GitHub. Cela m’a autant perturbé que toi.
Le
19/10/2023 à
18h
23
madhatter a dit:
Il est à la mode depuis quelques temps. Pour ma part je le trouve un peu trop froid. Je préfère Catppuccin (qu’on a aussi beaucoup vu sur Unixporn il est vrai).
En même temps pour un thème qui s’appelle Nord
Merci pour Catpuccin, connaissais pas il semble sympathique aussi.
Le
19/10/2023 à
17h
14
j’avais mal compris le message.
Bon, je pense que j’ai assez spammé en issues sur GitHub (même si Cqoicebordel tient la barre haute).
Et j’ai jamais autant écrit en français de ma vie sur GitHub, y’a une première à tout.
Le
19/10/2023 à
17h
02
Petit partage d’ailleurs, un ensemble de couleurs que j’ai récemment découvert et aime particulièrement : Nord. Si ça peut vous inspirer des variantes de thèmes :)
Le
19/10/2023 à
16h
53
fdorin a dit:
+1. Comme aujourd’hui peut être :)
Pour le coup je ne me souviens pas d’avoir déjà été notifié par une action de modération. Non pas que je sois un garçon sage, car j’ai déjà eu des messages supprimés.
Une petite notif à la personne disant “Modérateur vous a adressé un avertissement pour votre message XXX en raison de ZZZ” ?
Edit : d’ailleurs n’étant pas footeux pour deux sioux, “avertissement” et “sanction” sont des termes que je préfère :p
Le
19/10/2023 à
16h
13
la gestion des abonnements Premium et du paywall,
J’aurais pensé que Wordpress avait ça en plugin vu la quantité de sites qui s’en serve. Ca signifie qu’ils ont tous fait du custom ?
Par exemple, les appels à ajax.googleapis.com ont disparu.
Merci.
vous aurez le choix de les remettre [les commentaires] en bas de l’actu, nous vous tiendrons informés de l’avancement des travaux.
Merci.
La vue en conversation pourra être désactivée ? Je déteste ce genre d’affichage qui provoque des décalages et fout plus le bordel qu’autre chose en matière de lisibilité.
Des cartons jaunes seront distribués en cas de dépassement des bornes
Les personnes ciblées seront-elles notifiées ? Comment ?
Edit :
Creak a dit:
N’oubliez pas le flux RSS svp 😙
Bon sang je viens de m’apercevoir qu’il n’y en a pas en effet. Donc +touplein !!
shadowfox a dit:
Je tiens pas plus de 10 secondes sans mode sombre, j’arrive même pas à lire un paragraphe dans sur cette alpha.
Installe toi Darkreader (dispo sur les chromium et firefox) :)
En fait, il y a surtout un gros biais quand on travaille dans la tech, c’est qu’on ne pense qu’aux outils. Pas aux besoins. Probablement par biais cognitif pensant savoir ce qu’on veut (spoiler alert : non, cf ce commentaire qui m’a bien fait marrer hier).
De mon expérience, que ce soit lorsque j’étais en chefferie de projet ou aujourd’hui en architecture, je remarque systématiquement le même travers : aucun projet ne formule d’expression de besoin. Et quand il y en a une, le besoin c’est un outil. Ca peut paraître surprenant, mais oui, c’est mon constat régulier.
Non, non, non, trois fois non et putain de bordel de merde de non.
Le besoin c’est de couvrir un cas d’usage, pas d’installer un outil et ensuite se demander qu’est-ce qu’on va en faire.
Et si je croyais que c’était cantonné aux DSI que je connaissais, j’ai découvert il y a quelques mois que c’est vraiment un biais global. Cette année, j’avais proposé sur GitHub un petit projet sans grande prétention : présenter une liste de cas d’usages IT triés selon la timeline DevOps (plan, code, build, etc) avec dedans les différents outils pouvant répondre à ces cas d’usage. Quand j’ai vu les réactions autour, j’ai cru que j’avais révolutionné le monde honnêtement.
Apparemment peu de monde avait cette vision. Et c’est pas vraiment faux car souvent les cartographies applicatives sont en vue outils (GitHub, SonarQube, Nexus, Veracode, etc) triés par leur périmètre d’intervention, et non usage (Source Code Management, Continuous Integration, Static Code Analysis, Release Management, Static Application Security Testing, etc) qui amènent les outils y répondant.
Et ce problème existe aussi dans les projets métiers : plutôt que d’avoir une expression de besoin et un appel d’offre, on va aller voir éditeur A parce qu’on sait qu’il a un outil qui fait Machin. On paye le prix fort et ensuite on chiale car ça répond pas aux besoins et comme on a payé une couille et demie de license et intégration, on tord le cou au produit pour espérer s’en servir. Même chose pour les projets qui lancent un dev interne parce que, tu comprends, notre besoin métier est teeeeeeeeeeeeeellement spécifique qu’aucun éditeur au monde ne l’a couvert.
Le dernier cas était du vécu : pour une application de proposition de commandes en fonction des stocks et ventes. Soit le basique de tout ERP de gestion commerciale. /facepalm
Bref, tout ça pour dire que je considère que les initiatives, aussi géniales soient-elles, autour de la promotion du Fediverse sont tombées dans le même piège. Elles sont faites par des geeks et des enthousiastes qui fournissent un taff de dingue, encore une fois, mais ont du mal à se positionner dans la peau de l’utilisateur final.
Je ne peux pas leur en vouloir car c’est un exercice qui est loin d’être évident sans se mettre en immersion. Perso, en tant qu’architecte solutions, ça fait partie des éléments que j’adresse dans les projets auxquels j’interviens et je suis souvent surpris de voir que ceux-ci oublient l’utilisateur.
Le
21/10/2023 à
08h
56
fred42 a dit:
Il y a au moins un truc de compliqué :
On s’inscrit où ?
En posant la question, j’ai cherché mastodon inscription et suis tombé sur cette page de Numérama qui dit que c’est facile.
Sauf que https://joinmastodon.org/ est en anglais. Par défaut, il propose mastodon.social (toujours en anglais). Est-ce le meilleur choix pour un Français ? J’ai un doute.
Tu as parfaitement raison sur ce point, c’est un gros défaut du Fediverse dans sa globalité.
Bien qu’il y ait plusieurs sites “how to join fediverse”, certains extrêmement complets et bien suivis niveau contenu même, un taff de ouf à n’en pas douter, ils présentent tous les mêmes défauts :
Ils ont une vue outils, et non besoin (“si tu préfères instagram dans ce cas va sur pixelfed” au lieu de “je veux partager des photos”)
Ils sont quasi tous uniquement anglophones
Ils sont souvent réduits à ne citer que Mastodon
C’est, à ce jour, le principal défaut que je trouve du côté du fediverse. Le reste comme la modération, les règles, etc, c’est la même chose que les forums d’antan ou même les newsgroups comme tu l’évoques (je suis moins vieux , j’ai moins utilisé j’ai plutôt démarré avec IRC et les forums). Mais comme la génération d’utilisateurs plus jeune n’a connue que des plateformes centralisées, le concept de communautés interconnectées est plus difficile à appréhender contrairement aux vieux dans notre genre qui ont connu ça.
Le
20/10/2023 à
11h
19
Trooppper a dit:
T’es optimiste. Les gens veulent qqch de centralisé et simple (donc : exit Mastodon), et surtout à large audience. S’ils devaient migrer en masse de Twitter (ce qui à mon avis n’arrivera pas ou alors pas de sitôt, ce sera vers Threads ou BlueSky.
C’est surtout une question de visibilité et de communication. Peu importe la plateforme derrière.
Mais oui, je reste optimiste. Etant moi-même majoritairement consommateur de produits IT européens et non américains sans avoir recours à l’extrême de l’auto hébergement, je sais que c’est possible.
Le
20/10/2023 à
06h
55
Dommage, mais ça reste l’occasion de favoriser nos plateformes européennes dans tous les cas.
Après tout ceci reste des “phrases choc” comme Darmanin aime les faire. Le gouvernement actuel a démontré plus d’une fois son impuissance à faire avancer un sujet qui touche au secteur privé.
Par contre ce qui est désolant, c’est que ce type pourrait bien être le prochain président.
DU coup, si c’est ça, c’est exactement ce que fait DeepL, mais pour moins cher.
Merci Martin pour l’info sur le prix (j’avais pas pris la peine de chercher).
Pour le coup j’aurais dit que ça ressemble même à DeepL Write.
Si usuellement j’écris nativement en anglais sur mon blog, je ne suis pas non plus à l’aise avec un style plus littéraire (mon anglais étant beaucoup plus technique et courant) utilisé dans des petites histoires que je voulais rédiger. Le français m’étais plus simple, langue natale oblige.
Et après avoir voulu traduire ces écrits en anglais pour augmenter la portée de l’audience, j’ai fait de la trad en mode batch avec l’aide de DeepL (le gratuit, donc limité en usage quotidien, même si je sais qu’il suffit de supprimer les cookies j’ai joué le jeu) puis j’ai utilisé leur outil Write pour m’aider à reformuler des passages qui me semblaient trop “mécaniques”. Cet outil est vraiment bien pour le coup et m’a aidé à m’améliorer moi-même.
J’ai justement essayé invokeAI (merci au passage, ça va surement pouvoir m’aider), je trouve les résultats très bizarres, avec une interprétation très “artistique” de ce que j’ai demandé. Je ne sais pas d’où ça vient. Mais typiquement, l’envie de faire une photo d’un conseil municipale est assez typique de cette interprétation assez personnelle que j’ai eue. Ce qui est amusant, c’est qu’entre les 2 prompts, c’est le changement de la moyenne d’age. Mais je pense que ça vient justement des campagnes pro diversité qui, à mes souvenirs, montrent plutôt des jeunes (ça vise aussi cette tranche d’âge et il a été démontré que l’empathie fonctionne mieux face à une personne qui te ressemble).
La différence tu la vois à modèle égal ? Je ne vois pas ce qui ferait que le front impacte le prompt du modèle en fait. Mais j’atteins aussi mes limites de connaissances sur le sujet donc il y a peut-être des notions qui m’échappent encore.
Typiquement celui que j’utilise indique avoir comme objectif d’inclure le plus de diversité possible dedans, ce qui peut expliquer ces rendus très “diversity stock footage”. Ce genre de comparatif est aussi à faire en variant les modèles, mais honnêtement, j’ai autre chose à foutre
Le
20/10/2023 à
06h
47
J’ai testé du coup invokeAI, mais je n’arrive pas à faire un visage potable, contrairement à Automatic1111 ou il y a une section en plus High Res Fix (enfin plus complète) qui fait que les visages deviennent mieux (me demande pas pourquoi) :(
J’ai testé avec le même modèle des 2 côtés.
Et j’ai pas compris à quoi servait les “Lora”, j’ai testé un, un peu au pif, ça a fait n’importe quoi
En fait les LoRA et Textual Inversion sont des moyens de personnaliser ou étendre la compréhension du sujet par SD.
Lse modèles de base ont des limitations, typiquement ils ont tendance à faire la même tronche pour un type de personnage demandé. Ils ont généralement besoin d’un “trigger word” pour fonctionner, c’est à dire un mot clé à rajouter dans le prompt auquel on adjoint un poids pour jauger son influence sur le résultat.
Par exemple sur ce LoRA “pop art” il faut spécifier “POP ART” dans son prompt. Dans cette image tu as le prompt utilisé par la personne. Le LoRA est indiqué de la façon suivante : <lora:pop_art_v2:0.7>. Perso je me suis surtout beaucoup basé sur les prompts des rendus qui m’intéressaient pour apprendre à utiliser tout ça.
InvokeAI fait une légère abstraction de cette syntaxe (c’est du pur SD). Dans les menus à gauche tu auras LoRA (attention, un LoRA est comme un modèle, donc il faut qu’il soit fait pour SDXL si ton modèle de base est un SDXL, ici le “Pop Art” est un SD 1.5) dans lequel tu peux sélectionner ceux que tu as installé et tu obtiens une jauge pour son influence. Tu ajoutes “pop art” à ton prompt et, en principe, ton résultat va se styliser avec le poids du LoRA.
Concernant ton rendu, j’ai aussi eu le coup plus d’une fois. Après, je te cache pas que je fais rarement du visage. Au même titre que le photographe amateur que je suis ne fait pas dans l’humain, généralement je me contente de mettre des personnages de dos ou sans visage pour laisser cette partie à la discrétion de l’imagination de chacun.
Néanmoins si je peux donner quelques idées sans grande prétention : dans un premier temps, il faut voir les conseils donnés par le créateur du modèle. Généralement ils recommandent un sampler, le nombre de steps et le CFG. Exemple sur mon chouchou du moment ils recommandent le mettre 40 à 60 steps, CFG 5 à 7, et Euler ou DPM ++ SDE Karass en sampler. En toute transparence, le sampler reste encore un peu mystique pour moi malgré le temps passé à jouer avec cet outil. J’utiise principalement le second cité et j’ai souvent des bons résultats. Après dans un batch de 9 images, j’ai rarement plus d’un qui me plait vraiment. Mais depuis que InvokeAI a mis en place son gestionnaire de file, je modifie le prompt, renvoie dans la file, et laisse le PC me réchauffer les doigts de pieds pendant que je fais autre chose.
La doc du prompt engineering est plutôt bien accessible cela dit. Après en regardant un peu, si l’option “hires fix” n’existe pas sous forme d’une case à cocher dans InvokeAI, ils ne l’ont pas encore implémentée et elle est accessible via les workflows. Il y a aussi un petit article sur Civitai que j’aime bien sur les conseils de prompt pour SDXL car il a pas mal changé la donne par rapport à SD 1 et 1.5. Après, le refiner et le canevas pour l’inpainting permet de faire de sacrés trucs dans cet outil. Là où sur AUTOMATIC1111 ça me saoulait d’avoir une fenêtre de la taille d’un timbre poste pour faire de la modif de précision…
Bref, j’espère que ça te filera des billes
Le
19/10/2023 à
17h
00
eglyn a dit:
Tu as l’air de maitriser Stable Diffusion, je m’en sert un peu et je voulais tester les XL justement (je pense que j’ai assez de RAM), tu utilises quelle version de stable diffusion ?
J’ai par hasard et chance retrouvé une barrette de 4GB DDR4 qui traînait dans un carton et l’ai installée sur ce “vieux” PC (qui avait déjà eu une upgrade de 8 à 16GB - et il tourne avec une 1080GTX de 2018). Là il est donc à 20GB de RAM et ça passe pour SDXL + un LoRA actif.
C’est plutôt juste car il est à 18⁄20 utilisés cela dit. Mais au moins OOM Killer a arrêté de dégainer.
A noter que même baisser la taille de l’image ne changeait pas grand chose, SDXL ne travaille pas en dessous de 1024px.
Le
19/10/2023 à
16h
00
Cependant, si tu lui demandes “a representative group of french peoples”, qu’est-ce qu’il va faire ? Parce qu’il me paraît assez évident qu’avec un prompt sans contexte, trop court, “a French person” il comprend que tu lui demandes un cliché de Français, une personne qui possède tous les attributs qui permettent de l’identifier comme un Français et pas autre chose.
Premier lot avec “a photo of a representative group of French people” dont “representative” a visiblement été interprété comme députée. Pas concluant en matière de diversité ethnique française cela dit.
Par contre “a photo of people representing of France’s cultural diversity” a eu le résultat escompté. Mais cela dit, je pense que le modèle a juste pris en compte “diversity” sans chercher à le mettre en relation avec la France. Dans ce prompt, le seul impact que “France” a est le drapeau souvent mal rendu et l’arrière plan plutôt parisien.
Comme quoi, il suffit de peu de choses. On en revient avec le fait que oui, ça dépend aussi de ce qu’attend la personne ayant lancé le prompt. Si elle n’est pas sensible à ce type de biais, elle s’en foutra. Une personne plus sensible à la diversité cherchera un résultant en accord avec ses convictions.
Comme je disais précédemment, à titre personnel je préfère explicitement demander ce type de critère lorsqu’ils ont une importance dans mon besoin. Le reste du temps, je ne suis pas sensible à ce genre de sujet (la différence ethnique m’indiffère) mais j’ai conscience que l’outil va produire ce qu’il considère être “la norme” vis à vis de son entraînement. C’est aussi la raison pour laquelle il faut varier les modèles et les accompagner de LoRA.
Le
19/10/2023 à
14h
48
guildem a dit:
Je suis tout à fait d’accord avec toi : les moteurs de recherche d’images et les banques d’images (gratuites comme payantes) nourrissent les clichés depuis des années, ce que le cinéma faisait avant, ce que les livres faisaient avant, … Ça peut être bien d’essayer de pas foirer ça avec les IA :)
C’est pour ça que je pense qu’il faut plus une éducation à l’usage des outils (le côté “responsable” que les vendeurs de solutions IA essayent de mettre en avant) pour savoir qu’ils ont ces biais et qu’ils ne pourront pas les corriger magiquement.
Je te rejoins aussi sur la quantité, si le modèle génère toujours la même chose c’est bien la preuve qu’il y a un biais dans son entraînement. Pour la génération d’image, je pense que le seul moyen est d’avoir des dataset d’entraînement qui soient le plus égalitaire possible sur les critères, mais aussi pour les dataset de validation. Afin que “a person” soit considéré comme “a person” peu importe son ethnie. Car oui, le risque est qu’une “personne” de type africaine ou asiatique ne soit pas considérée comme telle par l’IA si elle est a majoritairement été entraînée sur des profils type caucasiens.
Là dessus, pour l’entraînement, ce n’est pas qu’un affaire d’entreprise vendeuse d’IA pour le coup. C’est global car “n’importe qui” peut entraîner un modèle StableDiffusion.
Mais il restera que des critères resteront tout de même des clichés ou des stéréotypes. Typiquement, si je prompt 100 fois “a French person” comme je l’ai fait tout à l’heure, j’aurais, je pense, à coup sûr cent fois des hommes et femmes de type européen. Et jamais de personnes de type maghrébines ou asiatiques quand bien même cela représente une bonne part de notre population.
Le
19/10/2023 à
12h
57
guildem a dit:
Dans ce cas, c’est une différence d’interprétation. Car pour moi, si la demande est vague (comme tu le dis, il y a quand même le fait que ce soit une personne, et d’un pays précis, mais ça reste très peu), la réponse, ou plutôt les réponses, devraient être très différentes les unes des autres, et ce serait ce qui est demandé pour moi. Et pour ton exemple “une personne”, on pourrait avoir un enfant pakistanais, un adulte japonais, une ado finlandaise, un vieux texan, voire même un italien mort (ça reste une personne).
Et là, c’est surtout la répartition qui pose problème. Car si tu fais une demande d’une personne et qu’on te renvoie un homme blanc américain standard une fois, bah pourquoi pas, ça reste une personne. Si tu fais la demande 100 fois et qu’on te renvoie 100 fois des hommes blancs américains standards, là il y a un biais et c’est pas bon.
C’est précisément là où je pointais le fait que les modèles sont globalement biaisés car entraînés par des jeux potentiellement incomplets ou insuffisamment égalitaires en matière de diversité. L’IA reste basée sur des probabilités pour produire un résultat cohérent avec l’attention incluant une part d’aléatoire pour éviter d’être trop déterministe. Raison pour laquelle je rappelais que les LoRA ont pour but d’enrichir et d’aider à mieux orienter le résultat.
Et si tu veux la personne moyenne qu’on peut trouver en Inde, il faudrait en faire la demande. Pareil pour un cliché, il faut le demander. Là on demande pas et on est à peu près sûr de l’avoir, ce qui pour moi est une erreur à corriger (via de meilleurs datasets plus précis et plus variés, et peut être des tweaks sur la gestion du prompt).
Question : si le résultat du prompt “an Indian person” est un homme avec un turban ou une femme avec un point rouge sur le front portant des vêtements colorés et un fourlar, tous deux au teint mat, devant un bâtiment ressemblant Taj Mahal, est-ce un cliché ? Sans des repères permettant de confirmer qu’il s’agit bien de personnes indiennes, comment s’assurer que le modèle a restitué l’attendu ?
Car l’IA s’entraîne ainsi : un jeu de données, et un jeu de contrôle pour vérifier que les prédictions du modèle sont conformes à l’attendu.
Typiquement, je viens de taper “indian person” sur StartPage et suis allé dans les images. Je pense que SD m’aurait claqué à peu près les mêmes résultats.
Le
19/10/2023 à
11h
59
C’est pas un mal absolu, c’est juste pas ce qui est demandé. Quand la demande n’est pas précise, la réponse ne devrait pas l’être non plus. Mais une “ personne indienne typique”, ou un “cliché d’indien”, ou un “stéréotype de personne indienne”, c’est déjà plus précis, et ça ramène les réponses avec le vieux enturbanné dans une photo hyper colorée et tout le reste.
Et c’est bien de pointer du doigt une des problématiques des datasets actuels. Car si les photos d’illustration des journaux doivent être un jour “toutes” générées par IA, autant éviter qu’elles ne tombent toutes dans des clichés, sans interdire pour autant de pouvoir générer des clichés si on le souhaite (en le demandant à l’IA).
Quand la demande n’est pas précise, la réponse ne devrait pas l’être non plus.
Pour le coup, “une personne indienne”, “une personne française”, c’est déjà une demande ayant un minimum de précision puisqu’on a dedans le sujet (un être humain) et le style (le pays d’affiliation). Mais comme elle reste vague, l’IA génère ce que n’importe qui aurait généré quand on parle d’un citoyen d’un pays ou d’une ethnie… Un cliché. Parce qu’on est conditionnés ainsi et qu’on a besoin de repères.
Si on demande “une personne” (demande encore plus imprécise), il y a de fortes chances que le modèle produise un homme de type Caucasien (j’ai éteint le PC avec SD, sinon j’aurai posté des exemples comme tout à l’heure). Pourtant c’est déjà un biais, puisque cela signifie que cette ethnie et ce sexe sont majoritaires, dont un réflexe, du point de vue du modèle.
J’ai donc du mal à comprendre le point sur le fait qu’un demande imprécise devrait donner un résultat imprécis. Dire “une personne” devrait faire un homme-bâton ? Sauf que c’est pas une femme-bâton (symbolisée avec une jupe, encore un cliché).
La question est avant tout éducative au sujet de l’usage de ces outils. Et comme les stock footages sont déjà blindés de clichés (dans tous les sens du terme, à nouveau), autant dire que l’IA n’y changera pas grand chose dans le cas des magazines.
Le
19/10/2023 à
11h
36
(quote:2159776:127.0.0.1) J’y pense: ça doit être sympa de jouer au pictionary avec des progressistes. non ?
Pour le coup, c’est pas faux, et ça me rappelle les passages de South Park avec les “PC babies” et toutes les torsions mentales que les parents devaient faire pour rester dans le dogme.
Le
19/10/2023 à
11h
32
C’est une très bonne question en fait. Car on ne peut pas représenter toute une diversité culturelle d’un pays ou d’une ethnie au sein d’une seule image d’une personne. Il va forcément y avoir des choix.
Pour rester en France, nous avons une disparité culturelle que ce soit par l’architecture de nos maisons (la traditionnelle brique rouge du Nord, les maisons alsaciennes, les maisons provençales, de nettes différences), nos tenues vestimentaires traditionnelles régionales, etc.
Je pense qu’au delà du cliché du beret baguette de pain, le cliché français aurait tendance à être une vision parisienne.
Au final, l’IA ne fait que de générer les cartes postales qu’on retrouve sur les lieux touristiques qui, elles aussi, sont des clichés. Dans tous les sens du terme.
Le
19/10/2023 à
09h
56
Tu as l’air de maitriser Stable Diffusion, je m’en sert un peu et je voulais tester les XL justement (je pense que j’ai assez de RAM), tu utilises quelle version de stable diffusion ?
Car j’ai du mal avec les 150 paramètres (sampling method, hresfix par ex, mais y en a plein d’autres) et en plus il faut choisir des sortes de modèles, des template de couleurs aussi (me suis un peu perdu la dedans).
Est-ce qu’il y a une version un peu user friendly qui choisi les meilleurs paramètres possibles, ou un truc du style ? Car je lis tout et son contraire sur Google XD
carbier a dit:
Personne ne dit le contraire je pense. Le problème est simplement que dans l’inconscient collectif une IA est plus “intelligente” qu’un humain et est surtout non biaisé.
On est d’accord et c’est le bullshit que je trouve horriblement regrettable autour de l’IA. L’outil est intelligent, à n’en pas douter (compréhension sémantique, capacité d’analyse du contenu d’une image, de l’émotion d’un texte, etc). Mais il est incapable de prendre des initiatives et des décisions, ou de deviner à la place du demandeur ce qu’il veut.
Je considère que l’IA n’est que le reflet de nous-même : imparfaite, biaisée, mais juste en beaucoup plus efficace.
J’utilisais auparavant AUTOMATIC1111 comme front pour StableDiffusion et j’étais aussi perdu avec ses douze millions de paramètres bruts de fonderie. InvokeAI nécessite dans tous les cas d’apprendre les concepts de base, mais l’interface est beaucoup plus accessible et lisible.
En gros une fois que tu as compris la relation entre le CFG et les Steps, t’as l’essentiel via cet outil. Et il permet d’intégrer les LoRA de manière plus simple via une interface dédiée pour modifier leur poids. Mais le triggerword reste nécessaire quand le modèle en a un.
Le
19/10/2023 à
06h
37
Et heureusement qu’il existe énormément de LoRA pour compenser les limitations des modèles de base.
Pour moi il ne faut pas sombrer dans des constats unilatéraux comme “l’IA fait des clichés stéréotypes”, elle fait ce qu’elle a appris. Si on entraîne un modèle de génération d’image uniquement sur des samples de Hulk, il ne va produire que des messieurs tout verts qui sont pas contents. Y’a rien de magique là dedans, que de la statistique.
Un exemple plus réaliste : une bonne partie des gros modèles qu’on trouve sur Civitai sont d’origine asiatique. Sans contextualisation particulière, il aura de fortes chances de produire des personnes de type asiatiques. Perso lorsque j’utilise un modèle pour générer un personnage en ayant en tête son ethnie, je la spécifie ainsi que le contexte attendu. Et si ça me plait pas, j’ajoute quelques LoRA (bon en ce moment avec SDXL je peux pas, faut que je booste la RAM… par contre avec SD1 ça va).
Après, entraîner un modèle pour qu’il soit le moins biaisé possible, j’ai envie de dire que c’est … Impossible. Si le jeu de données est biaisé (car le modèle prévu pour être spécialisé ou par choix de son créateur) ou si le prompt est biaisé, le résultat le restera. Pour moi il faut simplement prendre conscience de ces limitations et rappeler qu’il existe des tonnes de LoRA, des modèles légers extrêmement spécialisés sur un besoin précis, qui permettent d’enrichir le modèle de base et réduire le risque de résultats simplistes.
Pour reprendre la citation de l’article sur “Ils effacent toute la complexité et l’hétérogénéité des cultures concernées, ajoute de son côté la chercheuse en éthique de l’IA Sasha Luccioni.”, je dirais qu’on a là justement une réponse technique à ce problème avec les LoRA (l’autre réponse étant éducative). Entraîner des modèles spécialisés pour retranscrire toute la richesse d’une culture. Je pense qu’il doit déjà en exister.
Et le dernier point qui me semble important pour moi : être conscient que nous sommes tous biaisés par notre éducation et notre point de vue culturel. C’est pas un drame en soit, faut juste le savoir. Des clichés, on en produit nous-même sans le vouloir. Il faut donc s’auto éduquer à en prendre conscience pour déclencher une ouverture d’esprit. L’IA ne fera que ce pour quoi elle a été entraînée et ce qu’on lui demande.
ca fait une augmentation de 22 € (17 sur 2 ans) pour rajouter netflix standard+ paramount + OCS pas sur que ce vaille le coup.
Netflix Standard c’est déjà 13 balles, OCS c’est 10€, Paramount c’est 8€.
Si tu n’as pas besoin de ces plateformes, évidemment que ça ne sert à rien de changer d’offre. Par contre c’est quand même un bundle intéressant. Dans mon cas étant sur la sans engagement (à 45), j’avais pris celle qui les incluait tous de base. Et autant dire que je trouve que ça vaut le coup car unitairement ces plateformes reviendraient bien plus chères. Et jusqu’ici, ça fait écran aux augmentations de tarifs.
Et Canal+ est la cerise sur le gateau pour le coup avec les films récents.
Le
20/10/2023 à
09h
35
Dis moi que c’est un supplément et pas un truc que j’étais pas au courant
Pour le coup ça n’a pas, pour le moment, pas d’impact sur l’offre MyCanal que j’ai qui inclus Netflix avec Disney, Paramount et aussi Apple depuis peu. Comme quoi c’était plutôt un bon choix me concernant.
Jarodd a dit:
C’est qui dans l’image ? Un commercial de Netflix ?
Trooppper a dit:
Un perso de serie, lucifer je crois
Bah c’est pareil quoi.
(sinon oui, c’est le protagoniste de la série Lucifer)
Dealab pourrait bloquer les e-cartes mais pas certain qu’ils souhaitent le faire réellement
Alors, oui, et non. Oui c’est un galot pour arriver a des tarifs plus importants Non, parce que les services de Bot qui posent réellement problème vont pouvoir passer outre, ils sont généralement financés par des commanditaires qui en ont les moyens. Le prix du package va juste augmenter c’est tout.
Tu peux te retrouver bloquer sur certains sites pour certains usages par contre. Après, la BDD avec les numéros de cartes conservées par les sites, ça ne devrait plus avoir court vue la réglementation actuelle.
C’est pas tout à fait ça, ton big bro award devra être rendu Seule une fraction de ce que tu écris et englobe est vrai. le reste c’est plus de la news 20 minutes comme niveau de source.
C’est le partenaire du site qui permet de faire du X fois qui n’accepte pas les e-cartes, c’est pas tout à fait pareil. Mais oui, pour certains usages, les e-cartes sont refusées, notamment celui-là parce qu’il faut pouvoir rejouer la carte pour les échéances suivantes.
20 minutes n’est pas une source fiable, please !!! Mais sinon, oui grosso merdo on en est là, c’est fait unitairement et ciblé pour ceux qui peuvent demander aux banques.
On parle d’une levée partielle du secret bancaire, de manière très encadrée, c’est pas non plus un accès open bar faut arrêter avec le “la CAF elle a accès à tous”.
PAT et non PSP depuis la DSP2 pour nous pauvres français Après, aujourd’hui c’est du constat à postériori, ça bloque pas 100% des cas de e-cartes.
Pour moi le problème c’est pas le montant, c’est l’excuse derrière pour le faire qui est bidon.
Alors, je vais mettre du monde au clair là dessus, il existe un truc qui s’appelle < demande d’information >, et dont le montant à demander au client est de la somme astronomique de 0€ pour le client. Le processing lui n’est pas gratuit par contre, mais Twitter est déjà dans le rouge donc bon … Si le but de Twitter c’était juste de vérifier la présence d’une personne sans se faire du fric, ils utiliseraient ça. C’est valable sur CB, Visa, Mastercard, Amex, et Discovers au minimum
C’est dans les specs d’authentification forte que doivent respecter les serveurs d’authentification des banques.
Je crois que t’as explosé le quota de citations.
Tu peux te retrouver bloquer sur certains sites pour certains usages par contre.
Jamais eu le cas. Les seuls soucis liés à la e-CB était quand le numéro n’était pas reconnu par certains prestataires de paiement, mais je n’ai plus vu cela depuis quelques siècles.
Le
19/10/2023 à
11h
32
C’est un service proposé par ta banque ?
Oui, e-Carte Bleue via Visa. Revolut propose aussi de la “disposable card”.
Le
19/10/2023 à
07h
37
Il ne le peut pas. utiliser des cartes virtuelles est devenu un grand classique sur dealabs par exemple pour profiter de ristournes régulièrement.
Pour le coup j’utilise constamment les cartes à usage unique sur le Web, je refuse d’utiliser la vraie. Ayant eu par le passé des problèmes à causes de sites qui s’étaient fait voler leurs BDD, je ne prends plus de risque.
Le
19/10/2023 à
06h
41
(quote:2159599:Zone démilitarisée) Je pense à la e-Carte Bleue, est-ce que X peut connaître le compte auquel elle est rattachée et finir par le bloquer ?
Je ne pense pas qu’un commerçant puisse connaître le compte bancaire rattaché à une CB sans faire intervenir la banque qui l’a délivrée.
Personnellement je trouve surtout qu’il n’a plus aucune identité visuelle. Et ce rose, je sais bien que c’est le mode, mais justement.
Au moins celui-ci a une identité visuelle forte, qu’on l’aime ou pas. Mais bon, faut faire avec wordpress.
Je pense que la “beta de la beta”, pour reprendre l’expression, proposée est plus une maquette réalisée en mode ISO-1664 pour présenter les grandes lignes et tester un feedback utilisateur qu’un design définitif.
Le
18/10/2023 à
20h
37
Ferdi a dit:
Je suis intéressé pour avoir plus d’infos sur qui fait ça bien sur la synthèse en ia, n’hésite pas à me les envoyer au mail ci-dessus !
j’essayerai de te faire un récap de ce à quoi j’avais pu assister dès que possible.
Le
18/10/2023 à
17h
00
Merci pour cette synthèse, le jeune vieux con (car oui, à 39 ans je me considère encore jeune n’en déplaise aux autres) que je suis n’aimant pas perdre une heure à écouter des gens blablater dans une vidéo a beaucoup apprécié.
J’apprécie l’approche “moji offre le gîte et le couvert à Next” qui permet ainsi de garder une certaine autonomie tout en offrant la possibilité de profiter des infrastructures du proprio. Ca fait plus partenariat que rachat au final du point de vue extérieur.
Une question concernant les hausses d’abonnement (que j’approuve : vous n’étiez pas assez chers par rapport au taff produit et les promos trop régulières dévaluaient votre travail plus qu’autre chose à mes yeux, raison pour laquelle j’ai toujours choisi le tarif régulier) : allez-vous maintenir “l’engagement” comme aujourd’hui où l’on peut prendre jusqu’à 2 ans ou bien allez vous partir sur des offres plus conventionnelles type mensuelles + annuelles ?
Même si je le faisais, l’achat de deux ans me paraissait toujours un peu chelou pour garantir un revenu stable dans le temps car au final ça faisait plus un bond qu’autre chose pour un encéphalogramme plat ensuite pour un client.
Ferdi a dit:
Je suis assez d’accord sur le fond, je n’ai aucune idée du coût. On va voir ça.
Pour la synthèse audio, les progrès via l’IA sont impressionnants que ce soit sur la lecture textuelle et la restitution vocale. J’ai pu avoir des démo de chatbots vocaux où l’intervenant avait utilisé sa propre voix. La “discussion” (le chatbot était présenté dans le contexte d’un assuré déclarant un sinistre, mode question/réponse) était très naturelle et n’avait pas le son monotone Droopy - you know what ? I’m happy - des synthèses vocales usuelles. Moyennant quelques rapides sample, l’article peut même être raconté avec la voix de son auteur.
Cela a forcément un coût, mais je pense que ça peut être une option pour transformer en audio un article.
Bah tu restes sur ton canap aussi tant qu’on y est comme ça pas de problème. Tu vas pouvoir m’expliquer comment on désactive le nfc sur iphone.
On ne peut pas ?
Perso avec Android j’ai juste eu à le faire via les boutons du bandeau supérieur, comme pour couper le bluetooth.
Le
18/10/2023 à
20h
42
Tr4ks a dit:
Le problème à ne pas acheter chez SNCF c’est pour scanner un QR code sur un portique, ça ne fonctionne pas sur un iphone. Il se met en mode paiement à la détection de la borne NFC, du coup c’est très chiant faut avoir un contrôleur de dispo pour scanner ton ticket. D’ailleurs ça fausserait pas un peu la concurrence ce truc ?
C’est le risque avec n’importe quel paiement NFC type Google Pay, Samsung Pay et autres sur certains portiques où on “achète” automatiquement un droit d’usage des transports en commun. Pour le coup, la SNCF m’avait prévenu quand j’ai été aux Pays-Bas et recommandait de désactiver le NFC pour passer les portiques de la gare qui demandaient de scanner le QR Code.
Bon, je me suis quand même fait avoir car je l’ai oublié au retour. Mais comme les transports en commun fonctionnent par check-in et check-out, leur site permet d’envoyer une réclamation et de régulariser pour avoir remboursement.
Faut dire qu’avec la performance de l’IA générative sur le code d’une manière générale (car sur des trucs un peu plus spécialisée forcément elle va pêcher faute de matériel pour l’entraîner, l’IA n’est pas magique) et le fait qu’on peut même lui donner en entrée un workflow sous forme d’un diagramme qu’elle peut convertir en code, ce genre de site peut se faire du mouron.
En parlant de reconnaître le contenu généré, après avoir abdiqué sur le texte OpenAI semble avoir annoncé vouloir faire un “détecteur” pour les images. Cela dit, vu combien l’image générée par IA reste perfectible (et le fait que des générateurs peuvent mettre des watermark) je pense que c’est un peu plus réalisable que le texte.
Le service n’est pas présenté comme pouvant régler tous les problèmes. Microsoft prend bien soin de parler d’aide à la gestion.
C’est, pour le coup, ce que je trouve de réussi dans la comm’ de Microsoft sur le sujet. Ils évitent de vendre ces outils en trucs magiques qui remplacent l’humain. C’est la raison du terme “Copilot” pour les produits commerciaux qui l’intègre.
D’ordre générale, l’IA dans son avancement actuel doit toujours être considérée comme une assistante, une aide, voire un stagiaire.
(je caricature légèrement mais c’est l’impression que j’ai au bureau, quand je parle avec certaines personnes qui s’en foutent de savoir ce que c’est la maintenance et qui veulent le produit tout de suite, et pas cher aussi. La haute qualité, à bas coût, maintenant.)
(je caricature légèrement mais c’est l’impression que j’ai au bureau, quand je parle avec certaines personnes qui s’en foutent de savoir ce que c’est la maintenance et qui veulent le produit tout de suite, et pas cher aussi. La haute qualité, à bas coût, maintenant.)
Le soucis c’est que c’est exacerbé par les vendeurs de Cloud et de solutions low-code/no-code un peu comme il y a quelques décennies on te vendait Windows Server comme un poste de travail lambda (t’as vu t’as une GUI et tu peux travailler dessus, c’est pas un PC qui “sert à rien”).
Le
17/10/2023 à
20h
21
Je pense qu’il faut qu’on se concentre dans un premier temps, mais je garde ta proposition sous le coude. On a des choses plus franchement rémunératrices à sortir avant, comme le portail pour les entreprises et organisations par exemple. La demande est importante, et la gestion actuelle est complètement manuelle sur la v7, et sans développement commercial attitré. Je ne l’ai pas précisé lors de la présentation, mais nous estimons que ça peut représenter un quart des revenus à terme, et ce de façon récurrente, et sur une cible qui est tout à fait volontariste - et fortunée.
Les 3 langues en usage à la Commission n’ont pas changé (EN, DE, FR). Sachant qu’au quotidien, l’allemand et le français disparaissent, non seulement des écrits, mais même oralement.
En cause, le fort déplacement du centre de gravité des personnes qui y travaillent: l’Europe de l’Ouest y est de moins en moins présente, l’Europe de l’Est l’est de plus en plus.
L’anglais est donc la langue véhiculaire qui s’impose par défaut.
La présence ou l’absence de la GB ne joue donc aucun rôle là dedans ;)
A cela s’ajoute aussi que ces réglementations s’adressent à tout acteur qui veut commercer avec l’Espace Economique Européen, et donc pas seulement à l’UE. L’anglais s’impose donc comme un standard en matière de communication internationale.
RuMaRoCO a dit:
Cependant les termes avec “…. ACT” pour moi, je l’associe avec les USA. (Patriot act etc.),
14080 commentaires
Quoi de neuf à la rédac #4 : par où commencer…
21/10/2023
Le 21/10/2023 à 13h 41
Encore une prophétie qui va se réaliser je sens bien.
C’est clairement ce qu’il manque pour éviter les biais causés par les partis-pris.
Prendre parti sur un sujet n’est pas une tare, l’objectivité absolue n’existant pas. En avoir conscience est par contre un exercice très difficile, comme la remise en question et l’auto critique. Je pense que malgré la blague Judge Dredd, vous y êtes ouverts. Sinon cet article et avis consultatif n’aurait pas été publié.
Comme je l’ai déjà exprimé, je n’apprécie pas votre traitement du sujet de l’IA que je trouve biaisé par une opinion négative sur le sujet (le récent article parlant encore de “perroquet probabilistes” démontre un avis réducteur pour moi, basé sur une seule ligne de pensée quand bien même c’est la citation d’un article scientifique le concernant). Mais le risque est de biaiser votre lectorat en ne leur donnant qu’une seule ligne de pensée. Si ce n’est pas votre cas, c’est tout de même une frontière très mince avec la désinformation.
Pour faire un parallèle avec College Humour et son fameux “If Google was a guy”, rappelez-vous la scène de la nana qui demandait si les vaccins causaient l’autisme. “Google” lui tend 150 000 résultats disant que non et un seul disant que oui, elle prend le oui en disant “je le savais”. C’est caricatural, mais c’est un risque bien présent quand on s’enferme dans un unique parti pris.
Je pense que des articles ayant des points de vue différents, pas forcément contradictoires mais rien que le prisme de lecture pouvant varier d’un journaliste à l’autre, serait une valeur ajoutée non négligeable à votre ligne éditoriale. Un sujet ne peut être traité sur un unique point de vue, c’est déjà ce que je reprochais à Marc Rees malgré la qualité et précision de ses écrits : ça transpirait, voire dégoulinait de son opinion personnelle. Durant l’ère Hadopi, aurait-on vu un article expliquer la problématique du point de vue des représentants des sociétés de défense du droit d’auteur ? Je ne pense pas.
Pourtant même si on ne l’accepte pas, un point de vue divergent, voire contradictoire, est toujours bon à prendre. Sans le tourner en dérision, car oui, c’est vite arrivé et ça a déjà eu lieu ici par le passé. On ne doit pas chercher qu’à lire ce qui va dans notre sens, sinon c’est la foire aux bulles de pensées comme les médias sociaux l’ont fait. Je pense aussi qu’il y a un autre travers plus global de nos jours qui est qu’un échange de point de vue devrait être une confrontation dans le but de faire accepter son opinion à l’autre.
Non, on peut exposer un avis, une opinion, sans chercher à convaincre. Au même titre que comprendre n’est pas excuser (travers trop fréquent dans les débats en ligne).
Pour répondre aux questions :
Non.
Je trouve la ligne éditoriale équilibrée. Éventuellement un peu plus de visibilité sur les solutions technique européennes qui existent pour contrebalancer un biais et une idée reçue de “y’a rien en Europe il n’existe que des solutions US”. Je sais que vous l’abordez de temps en temps, mais je pense qu’une cartographie serait un dossier passionnant à traiter et faire découvrir des petites perles. J’avais fait l’exercice il y a une paire d’années pour mon blog, à mon échelle.
J’aurais tendance à dire oui, mais moi-même j’ai aussi tendance à m’étaler avec des écrits à parfois 20 minutes de lecture estimés sur mon blog. Donc je sais que c’est un exercice difficile.
(pour preuve ce commentaire…)
Le client n’a pas souhaité répondre à cette question.
Avec #Flock, tout le monde en prend pour son grade (lui aussi)
21/10/2023
Le 21/10/2023 à 13h 18
Magnifique Arpanet !
Next.ink : venez tester notre nouveau site en bêta !
19/10/2023
Le 21/10/2023 à 09h 46
Pire encore, y’a pas de dark mode sur la presse papier
Le 21/10/2023 à 08h 15
(je l’ai aussi signalé plus tôt dans le fil de message mais ce rappel est le bienvenue)
Et qui, accessoirement, te permet d’avoir le contrôle et de ne pas attendre que ça tombe tout rôti dans le bec.
Je pense qu’avec l’IT papa “je m’occupe de tout mon poussin t’en fais pas” auquel les grandes sociétés de la Tech nous habituent, les gens oublient que l’outil informatique est d’une puissance insoupçonnée en matière d’usage et de personnalisation.
Bref : https://darkreader.org
Le 20/10/2023 à 16h 47
T’as pas un peu fini de poster le résumé de ma vie professionnelle ?! Namého !
Pour le coup j’ai proposé deux petites modifs juste en triturant le CSS via les outils de dev sur GitHub. Mais oui, je pense que les développeurs seraient ravis d’avoir des propositions.
Le 20/10/2023 à 15h 14
Je laisse ceci innocemment.
https://xkcd.com/1172/
Le 20/10/2023 à 11h 24
Je l’ai signalé sur leur issue tracker sur GitHub. Cela m’a autant perturbé que toi.
Le 19/10/2023 à 18h 23
En même temps pour un thème qui s’appelle Nord
Merci pour Catpuccin, connaissais pas il semble sympathique aussi.
Le 19/10/2023 à 17h 14
j’avais mal compris le message.
Bon, je pense que j’ai assez spammé en issues sur GitHub (même si Cqoicebordel tient la barre haute).
Et j’ai jamais autant écrit en français de ma vie sur GitHub, y’a une première à tout.
Le 19/10/2023 à 17h 02
Petit partage d’ailleurs, un ensemble de couleurs que j’ai récemment découvert et aime particulièrement : Nord. Si ça peut vous inspirer des variantes de thèmes :)
Le 19/10/2023 à 16h 53
Pour le coup je ne me souviens pas d’avoir déjà été notifié par une action de modération. Non pas que je sois un garçon sage, car j’ai déjà eu des messages supprimés.
Une petite notif à la personne disant “Modérateur vous a adressé un avertissement pour votre message XXX en raison de ZZZ” ?
Edit : d’ailleurs n’étant pas footeux pour deux sioux, “avertissement” et “sanction” sont des termes que je préfère :p
Le 19/10/2023 à 16h 13
J’aurais pensé que Wordpress avait ça en plugin vu la quantité de sites qui s’en serve. Ca signifie qu’ils ont tous fait du custom ?
Merci.
Merci.
La vue en conversation pourra être désactivée ? Je déteste ce genre d’affichage qui provoque des décalages et fout plus le bordel qu’autre chose en matière de lisibilité.
Les personnes ciblées seront-elles notifiées ? Comment ?
Edit :
Bon sang je viens de m’apercevoir qu’il n’y en a pas en effet. Donc +touplein !!
Installe toi Darkreader (dispo sur les chromium et firefox) :)
Ca rend plutôt bien sur cette beta.
Musk dément vouloir désactiver X (ex-Twitter) en Europe
20/10/2023
Le 21/10/2023 à 09h 42
En fait, il y a surtout un gros biais quand on travaille dans la tech, c’est qu’on ne pense qu’aux outils. Pas aux besoins. Probablement par biais cognitif pensant savoir ce qu’on veut (spoiler alert : non, cf ce commentaire qui m’a bien fait marrer hier).
De mon expérience, que ce soit lorsque j’étais en chefferie de projet ou aujourd’hui en architecture, je remarque systématiquement le même travers : aucun projet ne formule d’expression de besoin. Et quand il y en a une, le besoin c’est un outil. Ca peut paraître surprenant, mais oui, c’est mon constat régulier.
Non, non, non, trois fois non et putain de bordel de merde de non.
Le besoin c’est de couvrir un cas d’usage, pas d’installer un outil et ensuite se demander qu’est-ce qu’on va en faire.
Et si je croyais que c’était cantonné aux DSI que je connaissais, j’ai découvert il y a quelques mois que c’est vraiment un biais global. Cette année, j’avais proposé sur GitHub un petit projet sans grande prétention : présenter une liste de cas d’usages IT triés selon la timeline DevOps (plan, code, build, etc) avec dedans les différents outils pouvant répondre à ces cas d’usage. Quand j’ai vu les réactions autour, j’ai cru que j’avais révolutionné le monde honnêtement.
Apparemment peu de monde avait cette vision. Et c’est pas vraiment faux car souvent les cartographies applicatives sont en vue outils (GitHub, SonarQube, Nexus, Veracode, etc) triés par leur périmètre d’intervention, et non usage (Source Code Management, Continuous Integration, Static Code Analysis, Release Management, Static Application Security Testing, etc) qui amènent les outils y répondant.
Et ce problème existe aussi dans les projets métiers : plutôt que d’avoir une expression de besoin et un appel d’offre, on va aller voir éditeur A parce qu’on sait qu’il a un outil qui fait Machin. On paye le prix fort et ensuite on chiale car ça répond pas aux besoins et comme on a payé une couille et demie de license et intégration, on tord le cou au produit pour espérer s’en servir. Même chose pour les projets qui lancent un dev interne parce que, tu comprends, notre besoin métier est teeeeeeeeeeeeeellement spécifique qu’aucun éditeur au monde ne l’a couvert.
Le dernier cas était du vécu : pour une application de proposition de commandes en fonction des stocks et ventes. Soit le basique de tout ERP de gestion commerciale. /facepalm
Bref, tout ça pour dire que je considère que les initiatives, aussi géniales soient-elles, autour de la promotion du Fediverse sont tombées dans le même piège. Elles sont faites par des geeks et des enthousiastes qui fournissent un taff de dingue, encore une fois, mais ont du mal à se positionner dans la peau de l’utilisateur final.
Je ne peux pas leur en vouloir car c’est un exercice qui est loin d’être évident sans se mettre en immersion. Perso, en tant qu’architecte solutions, ça fait partie des éléments que j’adresse dans les projets auxquels j’interviens et je suis souvent surpris de voir que ceux-ci oublient l’utilisateur.
Le 21/10/2023 à 08h 56
Tu as parfaitement raison sur ce point, c’est un gros défaut du Fediverse dans sa globalité.
Bien qu’il y ait plusieurs sites “how to join fediverse”, certains extrêmement complets et bien suivis niveau contenu même, un taff de ouf à n’en pas douter, ils présentent tous les mêmes défauts :
C’est, à ce jour, le principal défaut que je trouve du côté du fediverse. Le reste comme la modération, les règles, etc, c’est la même chose que les forums d’antan ou même les newsgroups comme tu l’évoques (je suis moins vieux , j’ai moins utilisé j’ai plutôt démarré avec IRC et les forums). Mais comme la génération d’utilisateurs plus jeune n’a connue que des plateformes centralisées, le concept de communautés interconnectées est plus difficile à appréhender contrairement aux vieux dans notre genre qui ont connu ça.
Le 20/10/2023 à 11h 19
C’est surtout une question de visibilité et de communication. Peu importe la plateforme derrière.
Mais oui, je reste optimiste. Etant moi-même majoritairement consommateur de produits IT européens et non américains sans avoir recours à l’extrême de l’auto hébergement, je sais que c’est possible.
Le 20/10/2023 à 06h 55
Dommage, mais ça reste l’occasion de favoriser nos plateformes européennes dans tous les cas.
Messageries chiffrées : pour Gérald Darmanin, « on doit pouvoir négocier une porte dérobée »
20/10/2023
Le 21/10/2023 à 08h 21
Après tout ceci reste des “phrases choc” comme Darmanin aime les faire. Le gouvernement actuel a démontré plus d’une fois son impuissance à faire avancer un sujet qui touche au secteur privé.
Par contre ce qui est désolant, c’est que ce type pourrait bien être le prochain président.
Le 20/10/2023 à 16h 45
Non.
Processeurs Zen 4 : notre comparatif des CPU Ryzen, Threadripper et EPYC d’AMD
20/10/2023
Le 20/10/2023 à 16h 13
Je suis pas trop l’actu CPU toussa. Mais en regardant les specs, je me retrouve un peu rêveur sur un point.
Le cache L3 de la plupart de ces CPU pourrait stocker une distrib Linux légère.
Springer-Nature vend aux chercheurs une IA nommée « Curie » pour rédiger leurs articles en anglais
20/10/2023
Le 20/10/2023 à 15h 30
Pour le coup j’aurais dit que ça ressemble même à DeepL Write.
Si usuellement j’écris nativement en anglais sur mon blog, je ne suis pas non plus à l’aise avec un style plus littéraire (mon anglais étant beaucoup plus technique et courant) utilisé dans des petites histoires que je voulais rédiger. Le français m’étais plus simple, langue natale oblige.
Et après avoir voulu traduire ces écrits en anglais pour augmenter la portée de l’audience, j’ai fait de la trad en mode batch avec l’aide de DeepL (le gratuit, donc limité en usage quotidien, même si je sais qu’il suffit de supprimer les cookies j’ai joué le jeu) puis j’ai utilisé leur outil Write pour m’aider à reformuler des passages qui me semblaient trop “mécaniques”. Cet outil est vraiment bien pour le coup et m’a aidé à m’améliorer moi-même.
Les IA génératives réduisent les stéréotypes à leur version la plus cliché
19/10/2023
Le 20/10/2023 à 11h 21
La différence tu la vois à modèle égal ? Je ne vois pas ce qui ferait que le front impacte le prompt du modèle en fait. Mais j’atteins aussi mes limites de connaissances sur le sujet donc il y a peut-être des notions qui m’échappent encore.
Typiquement celui que j’utilise indique avoir comme objectif d’inclure le plus de diversité possible dedans, ce qui peut expliquer ces rendus très “diversity stock footage”. Ce genre de comparatif est aussi à faire en variant les modèles, mais honnêtement, j’ai autre chose à foutre
Le 20/10/2023 à 06h 47
En fait les LoRA et Textual Inversion sont des moyens de personnaliser ou étendre la compréhension du sujet par SD.
Lse modèles de base ont des limitations, typiquement ils ont tendance à faire la même tronche pour un type de personnage demandé. Ils ont généralement besoin d’un “trigger word” pour fonctionner, c’est à dire un mot clé à rajouter dans le prompt auquel on adjoint un poids pour jauger son influence sur le résultat.
Par exemple sur ce LoRA “pop art” il faut spécifier “POP ART” dans son prompt. Dans cette image tu as le prompt utilisé par la personne. Le LoRA est indiqué de la façon suivante :
<lora:pop_art_v2:0.7>
. Perso je me suis surtout beaucoup basé sur les prompts des rendus qui m’intéressaient pour apprendre à utiliser tout ça.InvokeAI fait une légère abstraction de cette syntaxe (c’est du pur SD). Dans les menus à gauche tu auras LoRA (attention, un LoRA est comme un modèle, donc il faut qu’il soit fait pour SDXL si ton modèle de base est un SDXL, ici le “Pop Art” est un SD 1.5) dans lequel tu peux sélectionner ceux que tu as installé et tu obtiens une jauge pour son influence. Tu ajoutes “pop art” à ton prompt et, en principe, ton résultat va se styliser avec le poids du LoRA.
Concernant ton rendu, j’ai aussi eu le coup plus d’une fois. Après, je te cache pas que je fais rarement du visage. Au même titre que le photographe amateur que je suis ne fait pas dans l’humain, généralement je me contente de mettre des personnages de dos ou sans visage pour laisser cette partie à la discrétion de l’imagination de chacun.
Néanmoins si je peux donner quelques idées sans grande prétention : dans un premier temps, il faut voir les conseils donnés par le créateur du modèle. Généralement ils recommandent un sampler, le nombre de steps et le CFG. Exemple sur mon chouchou du moment ils recommandent le mettre 40 à 60 steps, CFG 5 à 7, et Euler ou DPM ++ SDE Karass en sampler. En toute transparence, le sampler reste encore un peu mystique pour moi malgré le temps passé à jouer avec cet outil. J’utiise principalement le second cité et j’ai souvent des bons résultats. Après dans un batch de 9 images, j’ai rarement plus d’un qui me plait vraiment. Mais depuis que InvokeAI a mis en place son gestionnaire de file, je modifie le prompt, renvoie dans la file, et laisse le PC me réchauffer les doigts de pieds pendant que je fais autre chose.
La doc du prompt engineering est plutôt bien accessible cela dit. Après en regardant un peu, si l’option “hires fix” n’existe pas sous forme d’une case à cocher dans InvokeAI, ils ne l’ont pas encore implémentée et elle est accessible via les workflows. Il y a aussi un petit article sur Civitai que j’aime bien sur les conseils de prompt pour SDXL car il a pas mal changé la donne par rapport à SD 1 et 1.5. Après, le refiner et le canevas pour l’inpainting permet de faire de sacrés trucs dans cet outil. Là où sur AUTOMATIC1111 ça me saoulait d’avoir une fenêtre de la taille d’un timbre poste pour faire de la modif de précision…
Bref, j’espère que ça te filera des billes
Le 19/10/2023 à 17h 00
J’ai par hasard et chance retrouvé une barrette de 4GB DDR4 qui traînait dans un carton et l’ai installée sur ce “vieux” PC (qui avait déjà eu une upgrade de 8 à 16GB - et il tourne avec une 1080GTX de 2018). Là il est donc à 20GB de RAM et ça passe pour SDXL + un LoRA actif.
C’est plutôt juste car il est à 18⁄20 utilisés cela dit. Mais au moins OOM Killer a arrêté de dégainer.
A noter que même baisser la taille de l’image ne changeait pas grand chose, SDXL ne travaille pas en dessous de 1024px.
Le 19/10/2023 à 16h 00
Premier lot avec “a photo of a representative group of French people” dont “representative” a visiblement été interprété comme députée. Pas concluant en matière de diversité ethnique française cela dit.
Par contre “a photo of people representing of France’s cultural diversity” a eu le résultat escompté. Mais cela dit, je pense que le modèle a juste pris en compte “diversity” sans chercher à le mettre en relation avec la France. Dans ce prompt, le seul impact que “France” a est le drapeau souvent mal rendu et l’arrière plan plutôt parisien.
Comme quoi, il suffit de peu de choses. On en revient avec le fait que oui, ça dépend aussi de ce qu’attend la personne ayant lancé le prompt. Si elle n’est pas sensible à ce type de biais, elle s’en foutra. Une personne plus sensible à la diversité cherchera un résultant en accord avec ses convictions.
Comme je disais précédemment, à titre personnel je préfère explicitement demander ce type de critère lorsqu’ils ont une importance dans mon besoin. Le reste du temps, je ne suis pas sensible à ce genre de sujet (la différence ethnique m’indiffère) mais j’ai conscience que l’outil va produire ce qu’il considère être “la norme” vis à vis de son entraînement. C’est aussi la raison pour laquelle il faut varier les modèles et les accompagner de LoRA.
Le 19/10/2023 à 14h 48
C’est pour ça que je pense qu’il faut plus une éducation à l’usage des outils (le côté “responsable” que les vendeurs de solutions IA essayent de mettre en avant) pour savoir qu’ils ont ces biais et qu’ils ne pourront pas les corriger magiquement.
Je te rejoins aussi sur la quantité, si le modèle génère toujours la même chose c’est bien la preuve qu’il y a un biais dans son entraînement. Pour la génération d’image, je pense que le seul moyen est d’avoir des dataset d’entraînement qui soient le plus égalitaire possible sur les critères, mais aussi pour les dataset de validation. Afin que “a person” soit considéré comme “a person” peu importe son ethnie. Car oui, le risque est qu’une “personne” de type africaine ou asiatique ne soit pas considérée comme telle par l’IA si elle est a majoritairement été entraînée sur des profils type caucasiens.
Là dessus, pour l’entraînement, ce n’est pas qu’un affaire d’entreprise vendeuse d’IA pour le coup. C’est global car “n’importe qui” peut entraîner un modèle StableDiffusion.
Mais il restera que des critères resteront tout de même des clichés ou des stéréotypes. Typiquement, si je prompt 100 fois “a French person” comme je l’ai fait tout à l’heure, j’aurais, je pense, à coup sûr cent fois des hommes et femmes de type européen. Et jamais de personnes de type maghrébines ou asiatiques quand bien même cela représente une bonne part de notre population.
Le 19/10/2023 à 12h 57
C’est précisément là où je pointais le fait que les modèles sont globalement biaisés car entraînés par des jeux potentiellement incomplets ou insuffisamment égalitaires en matière de diversité. L’IA reste basée sur des probabilités pour produire un résultat cohérent avec l’attention incluant une part d’aléatoire pour éviter d’être trop déterministe. Raison pour laquelle je rappelais que les LoRA ont pour but d’enrichir et d’aider à mieux orienter le résultat.
Question : si le résultat du prompt “an Indian person” est un homme avec un turban ou une femme avec un point rouge sur le front portant des vêtements colorés et un fourlar, tous deux au teint mat, devant un bâtiment ressemblant Taj Mahal, est-ce un cliché ? Sans des repères permettant de confirmer qu’il s’agit bien de personnes indiennes, comment s’assurer que le modèle a restitué l’attendu ?
Car l’IA s’entraîne ainsi : un jeu de données, et un jeu de contrôle pour vérifier que les prédictions du modèle sont conformes à l’attendu.
Typiquement, je viens de taper “indian person” sur StartPage et suis allé dans les images. Je pense que SD m’aurait claqué à peu près les mêmes résultats.
Le 19/10/2023 à 11h 59
Pour le coup, “une personne indienne”, “une personne française”, c’est déjà une demande ayant un minimum de précision puisqu’on a dedans le sujet (un être humain) et le style (le pays d’affiliation). Mais comme elle reste vague, l’IA génère ce que n’importe qui aurait généré quand on parle d’un citoyen d’un pays ou d’une ethnie… Un cliché. Parce qu’on est conditionnés ainsi et qu’on a besoin de repères.
Si on demande “une personne” (demande encore plus imprécise), il y a de fortes chances que le modèle produise un homme de type Caucasien (j’ai éteint le PC avec SD, sinon j’aurai posté des exemples comme tout à l’heure). Pourtant c’est déjà un biais, puisque cela signifie que cette ethnie et ce sexe sont majoritaires, dont un réflexe, du point de vue du modèle.
J’ai donc du mal à comprendre le point sur le fait qu’un demande imprécise devrait donner un résultat imprécis. Dire “une personne” devrait faire un homme-bâton ? Sauf que c’est pas une femme-bâton (symbolisée avec une jupe, encore un cliché).
La question est avant tout éducative au sujet de l’usage de ces outils. Et comme les stock footages sont déjà blindés de clichés (dans tous les sens du terme, à nouveau), autant dire que l’IA n’y changera pas grand chose dans le cas des magazines.
Le 19/10/2023 à 11h 36
Pour le coup, c’est pas faux, et ça me rappelle les passages de South Park avec les “PC babies” et toutes les torsions mentales que les parents devaient faire pour rester dans le dogme.
Le 19/10/2023 à 11h 32
C’est une très bonne question en fait. Car on ne peut pas représenter toute une diversité culturelle d’un pays ou d’une ethnie au sein d’une seule image d’une personne. Il va forcément y avoir des choix.
Pour rester en France, nous avons une disparité culturelle que ce soit par l’architecture de nos maisons (la traditionnelle brique rouge du Nord, les maisons alsaciennes, les maisons provençales, de nettes différences), nos tenues vestimentaires traditionnelles régionales, etc.
Je pense qu’au delà du cliché du beret baguette de pain, le cliché français aurait tendance à être une vision parisienne.
Et pour le coup je viens d’essayer avec SD, et oui, on a clairement une photo typiquement parisienne d’un homme au visage usé avec un béret pour “a photo of a French person” (modèle = copaxTimelessxl v1.7, SDXL, il est d’enfer). A French house ?, oui, mais clairement pas représentative de la diversité architecturale de notre pays.
Au final, l’IA ne fait que de générer les cartes postales qu’on retrouve sur les lieux touristiques qui, elles aussi, sont des clichés. Dans tous les sens du terme.
Le 19/10/2023 à 09h 56
On est d’accord et c’est le bullshit que je trouve horriblement regrettable autour de l’IA. L’outil est intelligent, à n’en pas douter (compréhension sémantique, capacité d’analyse du contenu d’une image, de l’émotion d’un texte, etc). Mais il est incapable de prendre des initiatives et des décisions, ou de deviner à la place du demandeur ce qu’il veut.
Je considère que l’IA n’est que le reflet de nous-même : imparfaite, biaisée, mais juste en beaucoup plus efficace.
InvokeAI est ton ami !
J’utilisais auparavant AUTOMATIC1111 comme front pour StableDiffusion et j’étais aussi perdu avec ses douze millions de paramètres bruts de fonderie. InvokeAI nécessite dans tous les cas d’apprendre les concepts de base, mais l’interface est beaucoup plus accessible et lisible.
En gros une fois que tu as compris la relation entre le CFG et les Steps, t’as l’essentiel via cet outil. Et il permet d’intégrer les LoRA de manière plus simple via une interface dédiée pour modifier leur poids. Mais le triggerword reste nécessaire quand le modèle en a un.
Le 19/10/2023 à 06h 37
Et heureusement qu’il existe énormément de LoRA pour compenser les limitations des modèles de base.
Pour moi il ne faut pas sombrer dans des constats unilatéraux comme “l’IA fait des clichés stéréotypes”, elle fait ce qu’elle a appris. Si on entraîne un modèle de génération d’image uniquement sur des samples de Hulk, il ne va produire que des messieurs tout verts qui sont pas contents. Y’a rien de magique là dedans, que de la statistique.
Un exemple plus réaliste : une bonne partie des gros modèles qu’on trouve sur Civitai sont d’origine asiatique. Sans contextualisation particulière, il aura de fortes chances de produire des personnes de type asiatiques. Perso lorsque j’utilise un modèle pour générer un personnage en ayant en tête son ethnie, je la spécifie ainsi que le contexte attendu. Et si ça me plait pas, j’ajoute quelques LoRA (bon en ce moment avec SDXL je peux pas, faut que je booste la RAM… par contre avec SD1 ça va).
Après, entraîner un modèle pour qu’il soit le moins biaisé possible, j’ai envie de dire que c’est … Impossible. Si le jeu de données est biaisé (car le modèle prévu pour être spécialisé ou par choix de son créateur) ou si le prompt est biaisé, le résultat le restera. Pour moi il faut simplement prendre conscience de ces limitations et rappeler qu’il existe des tonnes de LoRA, des modèles légers extrêmement spécialisés sur un besoin précis, qui permettent d’enrichir le modèle de base et réduire le risque de résultats simplistes.
Pour reprendre la citation de l’article sur “Ils effacent toute la complexité et l’hétérogénéité des cultures concernées, ajoute de son côté la chercheuse en éthique de l’IA Sasha Luccioni.”, je dirais qu’on a là justement une réponse technique à ce problème avec les LoRA (l’autre réponse étant éducative). Entraîner des modèles spécialisés pour retranscrire toute la richesse d’une culture. Je pense qu’il doit déjà en exister.
Et le dernier point qui me semble important pour moi : être conscient que nous sommes tous biaisés par notre éducation et notre point de vue culturel. C’est pas un drame en soit, faut juste le savoir. Des clichés, on en produit nous-même sans le vouloir. Il faut donc s’auto éduquer à en prendre conscience pour déclencher une ouverture d’esprit. L’IA ne fera que ce pour quoi elle a été entraînée et ce qu’on lui demande.
Netflix augmente ses tarifs dans de nombreux pays, dont la France
20/10/2023
Le 20/10/2023 à 11h 15
Netflix Standard c’est déjà 13 balles, OCS c’est 10€, Paramount c’est 8€.
Si tu n’as pas besoin de ces plateformes, évidemment que ça ne sert à rien de changer d’offre. Par contre c’est quand même un bundle intéressant. Dans mon cas étant sur la sans engagement (à 45), j’avais pris celle qui les incluait tous de base. Et autant dire que je trouve que ça vaut le coup car unitairement ces plateformes reviendraient bien plus chères. Et jusqu’ici, ça fait écran aux augmentations de tarifs.
Et Canal+ est la cerise sur le gateau pour le coup avec les films récents.
Le 20/10/2023 à 09h 35
Offre “CANAL+ CINÉ SÉRIES” à 45€/mois sans engagement.
Le 20/10/2023 à 06h 57
Pour le coup ça n’a pas, pour le moment, pas d’impact sur l’offre MyCanal que j’ai qui inclus Netflix avec Disney, Paramount et aussi Apple depuis peu. Comme quoi c’était plutôt un bon choix me concernant.
Bah c’est pareil quoi.
(sinon oui, c’est le protagoniste de la série Lucifer)
X (Twitter) devient payant pour les nouveaux comptes aux Philippines et Nouvelle-Zélande
19/10/2023
Le 19/10/2023 à 12h 51
Je crois que t’as explosé le quota de citations.
Jamais eu le cas. Les seuls soucis liés à la e-CB était quand le numéro n’était pas reconnu par certains prestataires de paiement, mais je n’ai plus vu cela depuis quelques siècles.
Le 19/10/2023 à 11h 32
Oui, e-Carte Bleue via Visa. Revolut propose aussi de la “disposable card”.
Le 19/10/2023 à 07h 37
Pour le coup j’utilise constamment les cartes à usage unique sur le Web, je refuse d’utiliser la vraie. Ayant eu par le passé des problèmes à causes de sites qui s’étaient fait voler leurs BDD, je ne prends plus de risque.
Le 19/10/2023 à 06h 41
Je ne pense pas qu’un commerçant puisse connaître le compte bancaire rattaché à une CB sans faire intervenir la banque qui l’a délivrée.
Next, un pacte : nos changements et engagements pour la suite
18/10/2023
Le 19/10/2023 à 08h 06
Je pense que la “beta de la beta”, pour reprendre l’expression, proposée est plus une maquette réalisée en mode ISO-1664 pour présenter les grandes lignes et tester un feedback utilisateur qu’un design définitif.
Le 18/10/2023 à 20h 37
j’essayerai de te faire un récap de ce à quoi j’avais pu assister dès que possible.
Le 18/10/2023 à 17h 00
Merci pour cette synthèse, le jeune vieux con (car oui, à 39 ans je me considère encore jeune n’en déplaise aux autres) que je suis n’aimant pas perdre une heure à écouter des gens blablater dans une vidéo a beaucoup apprécié.
J’apprécie l’approche “moji offre le gîte et le couvert à Next” qui permet ainsi de garder une certaine autonomie tout en offrant la possibilité de profiter des infrastructures du proprio. Ca fait plus partenariat que rachat au final du point de vue extérieur.
Une question concernant les hausses d’abonnement (que j’approuve : vous n’étiez pas assez chers par rapport au taff produit et les promos trop régulières dévaluaient votre travail plus qu’autre chose à mes yeux, raison pour laquelle j’ai toujours choisi le tarif régulier) : allez-vous maintenir “l’engagement” comme aujourd’hui où l’on peut prendre jusqu’à 2 ans ou bien allez vous partir sur des offres plus conventionnelles type mensuelles + annuelles ?
Même si je le faisais, l’achat de deux ans me paraissait toujours un peu chelou pour garantir un revenu stable dans le temps car au final ça faisait plus un bond qu’autre chose pour un encéphalogramme plat ensuite pour un client.
Pour la synthèse audio, les progrès via l’IA sont impressionnants que ce soit sur la lecture textuelle et la restitution vocale. J’ai pu avoir des démo de chatbots vocaux où l’intervenant avait utilisé sa propre voix. La “discussion” (le chatbot était présenté dans le contexte d’un assuré déclarant un sinistre, mode question/réponse) était très naturelle et n’avait pas le son monotone Droopy - you know what ? I’m happy - des synthèses vocales usuelles. Moyennant quelques rapides sample, l’article peut même être raconté avec la voix de son auteur.
Cela a forcément un coût, mais je pense que ça peut être une option pour transformer en audio un article.
La SNCF met enfin un terme à son partenariat avec Webloyalty
18/10/2023
Le 19/10/2023 à 07h 38
Ah je savais pas, c’est con…
Le 19/10/2023 à 06h 23
On ne peut pas ?
Perso avec Android j’ai juste eu à le faire via les boutons du bandeau supérieur, comme pour couper le bluetooth.
Le 18/10/2023 à 20h 42
C’est le risque avec n’importe quel paiement NFC type Google Pay, Samsung Pay et autres sur certains portiques où on “achète” automatiquement un droit d’usage des transports en commun. Pour le coup, la SNCF m’avait prévenu quand j’ai été aux Pays-Bas et recommandait de désactiver le NFC pour passer les portiques de la gare qui demandaient de scanner le QR Code.
Bon, je me suis quand même fait avoir car je l’ai oublié au retour. Mais comme les transports en commun fonctionnent par check-in et check-out, leur site permet d’envoyer une réclamation et de régulariser pour avoir remboursement.
Stack Overflow, qui avait doublé ses effectifs l’an passé, licencie 28 % de ses 500 salariés
18/10/2023
Le 18/10/2023 à 19h 12
Faut dire qu’avec la performance de l’IA générative sur le code d’une manière générale (car sur des trucs un peu plus spécialisée forcément elle va pêcher faute de matériel pour l’entraîner, l’IA n’est pas magique) et le fait qu’on peut même lui donner en entrée un workflow sous forme d’un diagramme qu’elle peut convertir en code, ce genre de site peut se faire du mouron.
En parlant de reconnaître le contenu généré, après avoir abdiqué sur le texte OpenAI semble avoir annoncé vouloir faire un “détecteur” pour les images. Cela dit, vu combien l’image générée par IA reste perfectible (et le fait que des générateurs peuvent mettre des watermark) je pense que c’est un peu plus réalisable que le texte.
Chez Microsoft, coup d’envoi d’Azure AI Content Safety pour la détection des contenus dangereux
18/10/2023
Le 18/10/2023 à 05h 25
C’est, pour le coup, ce que je trouve de réussi dans la comm’ de Microsoft sur le sujet. Ils évitent de vendre ces outils en trucs magiques qui remplacent l’humain. C’est la raison du terme “Copilot” pour les produits commerciaux qui l’intègre.
D’ordre générale, l’IA dans son avancement actuel doit toujours être considérée comme une assistante, une aide, voire un stagiaire.
Suivez en direct la naissance du nouveau « Next », à partir de 19 h
16/10/2023
Le 18/10/2023 à 05h 19
Le soucis c’est que c’est exacerbé par les vendeurs de Cloud et de solutions low-code/no-code un peu comme il y a quelques décennies on te vendait Windows Server comme un poste de travail lambda (t’as vu t’as une GUI et tu peux travailler dessus, c’est pas un PC qui “sert à rien”).
Le 17/10/2023 à 20h 21
X condamnée à 360 000 euros d’amende pour non-gestion de contenus pédopornographiques
18/10/2023
Le 18/10/2023 à 05h 17
Les bureaux locaux ont été fermés, c’est ça ? Généralement ces antennes ne sont que des vendeuses d’espaces publicitaires cela dit.
Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes
17/10/2023
Le 17/10/2023 à 20h 19
A cela s’ajoute aussi que ces réglementations s’adressent à tout acteur qui veut commercer avec l’Espace Economique Européen, et donc pas seulement à l’UE. L’anglais s’impose donc comme un standard en matière de communication internationale.
En fait “Act” dans ce contexte signifie “Loi”.