Tech Generation, le site qui teste ce que ChatGPT sait faire en journalisme tech
Chômage technique pour la team Next INpact ?
Le 04 mai 2023 à 09h09
11 min
Société numérique
Société
Responsable innovation chez Viseo, Ari Kouts a décidé de tester ce que divers modèles d’IA générative seraient capables de faire en matière de génération de site web. Ses tests en cours : Tech Generation, qui produit des brèves sur l’actualité de la tech, et Cuisine Generation, sites de recettes de cuisine.
Depuis la sortie de ChatGPT et de Midjourney, dans Next INpact et partout ailleurs, on a parlé des risques et des potentialités qu’ouvrent modèles d’IA génératifs. Mais en pratique, lorsque ces technologies sont utilisées dans un contexte appliqué, que valent-elles ? Est-ce qu’elles peuvent faire tourner un site aussi efficacement que le feraient des humains ?
Développeur et responsable innovation chez Viseo, Ari Kouts a voulu se faire son propre avis. « Jusque-là, les gens avaient beaucoup utilisé ChatGPT depuis son interface publique, explique-t-il. Celle-ci est très accessible, mais présente ses propres cadres et ses propres garde-fous, or, je me demandais si les gens avaient vraiment compris à quel point ce type de technologie est malléable. »
Fin mars, il se plonge donc du côté payant du portail ouvert par OpenAI et décide de créer un premier site, Tech Generation, pour tester « jusqu’où ChatGPT permettait d’aller en termes de bâtonnage de dépêches ». Rapidement, il lance un second projet, Cuisine Generation, « qui lui est plus axé sur la créativité puisqu’il s’agit de créer des recettes. »
- ChatGPT ravive les débats autour des compétences de l'intelligence artificielle
- Quels pourraient être les effets de ChatGPT sur l’information ?
- ChatGPT, Bard et les autres, agents de désinformation massive ?
- Où en sont les modèles d’IA génératifs ?
Un processus en quatre étapes
Si, pour le premier projet, Ari Kouts a choisi d’angler son titre sur les technologies, c’est qu’il a le sentiment que dans ce monde-là, « il y a beaucoup de reprises de sites étrangers, de dépêches, une partie non négligeable du travail qui consiste à reprendre des articles écrits ailleurs ».
À partir de cette idée, la mise en place du dispositif est relativement simple. Le développeur crée pour commencer des personnages de journalistes, « Vianney Garret » et « Nina Gavetière », auxquels il donne une biographie, un style, une manière d’écrire.
« Sur ce site-là, j’en ai construit un qui a un ton humoristique, qui essaie de faire des blagues dans ses articles », tandis que la seconde est plutôt « dans une logique d’enquête, elle cherche à poser des questions, à ouvrir le débat en fin d’article. Je ne sais pas si les gens qui utilisent ChatGPT en mode public en sont conscients, mais du côté payant, on peut aller assez loin dans les requêtes ». Il est possible de dire à la machine « tu es une journaliste » ou n’importe quel autre rôle, « tu écris selon tel style », « un article de telle longueur », etc.
Deuxième étape de son processus de publication, Ari Kouts crée un « comité éditorial », un système qui consiste à trier automatiquement dans les flux RSS de médias américains pour choisir un nombre précis d’articles à soumettre au modèle d’IA. La machine est ensuite chargée de rédiger son article à partir du modèle - sur Tech Generation, elle cite sa source à chaque fois - puis de publier, automatiquement, encore une fois, « sans passer par une quelconque étape de relecture ».
Sur Cuisine Generation, le développeur a créé un processus similaire en tous points, à ceci près qu’il ne s’agit pas de copier des recettes existantes, mais de les fabriquer de toutes pièces. Pour ce site-là, il a par ailleurs créé quatre profils d’auteurs, auxquels il a encore une fois donnée des personnalités spécifiques. « Il y en a un à qui j’ai donné un attrait pour les plats aux influences multiculturelles, une autre qui est censée beaucoup aimer le piment, dans certains cas, je les ai fait rajouter des blagues ou des anecdotes familiales… »
À la différence de Tech Generation, ce second titre ne fournit aucune source puisqu’il s’agit de génération pure. « Il est possible que les proportions soient incohérentes, ou que les recettes ne soient pas bonnes », souligne Ari Kouts, qui a prévu d’en tester quelques-unes dans les jours à venir (l’histoire ne dit pas s’il optera pour les improbables brochettes de bœuf aux fraises).
Automatisation simple
Au total, la création des deux sites n’a pris que quelques heures à Ari Kouts, le temps d’un week-end. « 500 lignes de code », un CMS Wordpress, une création de flux RSS… « Rien de tout ça n’était compliqué, raconte-t-il. La partie la plus complexe a été de créer les prompts (requêtes, ndlr) et de les tester suffisamment pour que le résultat soit efficace. »
Pour les illustrations, il a opté pour une sélection automatique sur la banque d’images libres de droit Unsplash pour Tech Generation. Côté Cuisine, en revanche, c’est Stable Diffusion qui est mis à contribution pour illustrer les recettes. Depuis début avril, explique le développeur, « je ne touche plus à Tech Generation et franchement le site peut fonctionner tel quel pour un usage de curation pure ».
Au 2 mai, le premier site comptait 970 articles, sachant qu’Ari Kouts a forcé la partie « comité éditorial » de son robot à choisir cinq articles maximum tous les deux heures, puis celle « rédaction » à en écrire deux maximum par heures. Sur le second, le rythme est plus réduit, avec une recette toutes les 4 heures (570 avaient été publiées le 2 mai).
Lorsqu’il se retourne sur l’expérience, Ari Kouts estime que la construction des sites entièrement génératifs a été relativement simple, mais qu’il a fallu réfléchir à une série de lignes directrices pour qu’ils fassent réellement illusion. Le style des articles, leur format, « de 5 à 8 paragraphes, avec toujours un exergue », la spécification du nombre de personnes et du temps de préparation pour les recettes… C’est lui qui a tout spécifié. « On donne un cadre à la machine, et elle n’en sort pas : elle exécute précisément ce que vous lui avez demandé ».
C’est aussi lui qui fournit à la machine la liste des 100 derniers articles parus pour l’empêcher de reproduire des articles ou des recettes déjà faites. Au fil du temps, Ari Kouts remarque tout de même que Cuisine Generation développe des « obsessions » particulières : « si vous remontez aux toutes premières publications, les titres de recettes étaient assez plats, ils se contentaient de décrire certains aliments ». À un moment, sans qu’aucune raison évidente n’émerge, le robot a commencé à publier des titres pour chacune de ses recettes : « La valse des saveurs printanières », « La danse envoûtante des fruits exotiques ». « Depuis, les titres sont tous sous ce format. »
L'autre élément marquant est celui des blagues : « Plusieurs lecteurs en ont signalé qui n'avaient pas trop de sens. Mais à part ça, il y a peu de problèmes, les publications restent dans l'ensemble très cohérentes. »
Des effets contrastés sur l'information
Le 1er mai, l’entreprise Newsguard a publié une étude recensant une cinquantaine de « newsbots », des sites d’actualités générés par IA. « Quand on s’y penche, ces sites-là sont très mal faits, on repère très vite que ça n’est pas écrit des humains » estime Ari Kouts en comparant avec ses expérimentations.
Tout de même, c’est précisément parce qu’il était intéressé par les questions de fausses informations, d’« ère de la post-vérité » que le développeur dit s'être lancé dans son expérience. « Je pense que ces problématiques existaient déjà, que ce soit en utilisant Photoshop ou en écrivant n’importe quoi, il y avait déjà besoin de vérifier les informations sur lesquelles on tombait en ligne, expose-t-il. Je ne suis pas sûr que les modèles génératifs y changent fondamentalement quelque chose. »
- ChatGPT invente un cas de harcèlement sexuel et accuse une personne réelle
- AI Act : l’IA générative pourrait être régulée par niveaux
- Le Bureau européen des consommateurs demande une enquête sur ChatGPT
Que ce soit dans leurs slogans -« la technologie générée autrement », « la cuisine générée, pour vous ! »- ou dans leurs pages « À propos », Tech Generation et Cuisine Generation mentionnent en plusieurs endroits être le produit de technologies génératives. ChatGPT est même explicitement nommé comme directeur de la rédaction. Est-ce suffisant pour alerter le lectorat sur la particularité des deux sites ? Difficile à dire.
Ari Kouts remarque tout de même qu’il a pu s’inscrire à Google news sans problème particulier, et qu’il arrive désormais que certaines recettes de son site automatisé se retrouvent dans l’onglet « Discover » de Chrome. « Ça apparaît donc à des endroits où l’on pourrait croire que la sélection est humaine. Donc là, oui, on peut se demander quels sont les garde-fous en place. » Il a aussi tenté de créer une histoire de toute pièce, avec ChatGPT au texte et Stable Diffusion à l’image, pour la mettre sur Wikipédia, « pour poser la question de la gestion de ce flux d’informations ». Il en rit : « La page a été effacée en quelques heures, et je me suis pris quelques insultes de wikipédiens au passage. »
Qu’est-ce que ces technologies impliquent pour la production d’information, celle qui est vérifiée cette fois ? « Une automatisation complète me paraît franchement peu intéressante pour les sites d’informations sérieux » répond le développeur. Il croit ces modèles éventuellement intéressants pour les journalistes, pour les aider à accélérer dans l’écriture, mais « parmi les enjeux qui restent, il y a ceux de la relecture : il y aura toujours besoin d’un humain pour vérifier qu’il n’y a pas d’erreurs. » La tentative d’automatisation opérée par le magazine CNET en novembre, qui s’était soldée par la publication de plusieurs dizaines d’articles complètement faux, tend à lui donner raison. « Par ailleurs, ça ne sert à rien d’écrire automatiquement des millions d’articles : qui va les lire ? »
- Vie privée et propriété intellectuelle bousculées dans les jeux d’entraînement des IA génératives
- Le Hub France IA publie une note d’impact sur ChatGPT
Pour lui, les modèles génératifs peuvent non seulement aider dans le travail, « peut-être faciliter l’écriture de brèves pour dégager du temps pour tout ce qui demande d’être recoupé, vérifié, où le style doit être plus travaillé ». En cela, se dit Ari Kouts, peut-être que les modèles d’IA génératifs participeront à pousser les lecteurs à chercher des contenus de plus grande qualité, « voire à payer pour ». Il met ici le doigt sur une série d’interrogations qui agitent largement le milieu médiatique. Si beaucoup - nous compris - se sont inquiétés des risques nombreux posés par les modèles génératifs, les prises de position explorant les effets positifs des modèles génératifs se sont aussi multipliés.
On a par exemple vu le rédacteur en chef adjoint du média suisse Heidi news argumenter que « l’IA peut être une chance pour le journalisme », la radio Couleur 3, toujours en Suisse, tester l’usage de l’IA le temps d’une journée. Les formations se multiplient, aussi, qui visent à aider les journalistes à prendre en main ces technologies. Dans le même temps, le gagnant du Sony World Photography Award 2023 a refusé son prix, révélant qu’il avait créé sa photo de toutes pièces grâce à un modèle d’IA.
Bref, les débats sur les effets des modèles génératifs sur l'information restent bien loin d’être épuisée.
Tech Generation, le site qui teste ce que ChatGPT sait faire en journalisme tech
-
Un processus en quatre étapes
-
Automatisation simple
-
Des effets contrastés sur l'information
Commentaires (25)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 04/05/2023 à 10h08
Je serais curieux d’avoir une estimation du coût que cela représente pour l’exploitation des 2 sites en requête OpenAI.
J’ai été jeté un coup d’oeil sur Tech Generation, rien que pour le côté traduction, c’est quand même bien foutu, l’image d’illustration tombe souvent à côté, mais pour la reprise d’info d’un autre site, ça fait pas mal le boulot.
Le 04/05/2023 à 11h11
C’est du contenu statique donc ça doit pas coûter bien cher.
Avec GPT-4 (le moteur le plus cher) on est à \(0.06 / 1K tokens pour la longueur du prompt (ce que tu demandes) \)0.12 / 1K tokens (ce qu’il te génère).
1 token c’est grosso modo égal à un mot (pour simplifier).
L’article de Mathilde que tu viens de lire c’est 1 910 mots. On peut pas calculer précisément sans avoir la taille du prompt mais on voit bien que l’ordre de grandeur c’est 2 * 1K tokens soit dans les $0.20.
Et ça c’est si tu utilises GPT-4. GPT-3 (le modèle utilisé par ChatGPT) est beaucoup moins cher, on est sur du $0.02 / 1K tokens soit quasi 5x moins cher.
Donc selon les modèles utilisés, la taille du prompt etc … Ça te fait entre 5 et 30 balles pour une centaine d’articles rédigés.
Le 04/05/2023 à 13h39
l’abonnement a nextinpact va baisser \o/
Le 04/05/2023 à 10h17
L’IA générative va favoriser les contenus payants produits par des humains (même si l’IA générative peut être une aide). Perso, j’y crois beaucoup. Ce sera l’un des effets bénéfiques. Les brèves, les “news” produites encore plus rapidement.
A contrario, il y aura potentiellement aussi beaucoup de contenus créés essentiellement à partir d’IA, financés par de la publicité ciblée créée à partir d’une IA, qui seront plus réactifs, plus nombreux et plus insipides.
Le 04/05/2023 à 11h24
Bah y’a toujours des gens pour croire que le Gorafi est un vrai journal. Donc à partir de là…
Cela dit, merci pour cet article montrant un cas d’utilisation appliquée qui change de la couverture quasi toujours négative/anxiogène que vous faites sur le sujet. La techno suscite autant de peurs que d’enthousiasme, il faut donc trouver un juste milieu pour éviter de donner l’impression d’un biais éditorial.
A titre personnel j’exploite aussi ces outils sur un petit projet de RPG texte ayant quelques illustrations. Si j’écris moi-même l’histoire, je m’aide de ChatGPT comme assistant permettant de m’assurer que le fil est cohérent avec le lore choisi, je lui demande quelques idées d’embranchement ou de situation (le jeu ayant des possibilités de choix) que je met en concurrence pour voir laquelle me plait le plus etc. Et à côté, les images d’illustrations sont générées avec StableDiffusion. Au début j’utilisais Craiyon mais ça m’a saoulé, j’ai donc recyclé un vieux PC de jeux pour installer l’outil dessus et profiter de sa puissance. StableDiffusion, en deux mots : ça déchire. Ca peut aussi générer plein d’horribles monstres mutants, j’aurais du choisir un lore Lovecraftien plutôt que Fallout
En soit, j’ai pu coder le moteur du jeu (basé sur du web simple) avec l’aide de ChatGPT, j’ai pu écrire l’histoire, faire les divers assets. Un projet que, seul, j’aurais abandonné depuis longtemps je pense. Des assistants bien utiles. Rien de bien prétentieux en terme de qualité d’écriture ou de narration non plus sur mon projet, mais au moins ça me fait un petit sujet de dev fil rouge pour maintenir des compétences qui ne sont pas mes principales.
Le 04/05/2023 à 12h29
Petite question intéressée, StableDiffusion, c’est un truc que tu installes sur ta machine ? j’ai trouvé leur github, mais j’avoue que j’ai rien compris comment s’en servir
Le 04/05/2023 à 12h35
Ok je me répond à moi-même, j’étais pas au bon endroit, ils ont toute une doc ^^
GitHub
Le 04/05/2023 à 13h47
J’utilise la webui AUTOMATIC1111 qui a super bien scripté le truc pour que ce soit très simple à lancer. Mis à par quelques instabilités comme le process qui fige et oblige de reboot la machine, j’ai pas trop de soucis.
Installé sur une Manjaro, avec une 1080 GTX de 2018.
Je connaissais pas InvokeAI mais il me semble avoir entendu que AUTOMATIC1111 était en train de se faire rattraper par un autre projet. Faudra que j’essaye
Le 04/05/2023 à 16h38
J’arrive toujours pas à savoir si ces “IA” sont des choses bénéfiques | géniales ou pas…
Comme d’habitude, il me semble que ça dépendant de l’utilisation que l’on en fait, c’est à dire qu’il faut rajouter le paramètre “humanité” dans l’équation.
Et s’il y a bien un paramètre qui fout le bordel c’est celui-là.
Pour https://www.tech-generation.fr/a-propos/, de loin et vite fait, c’est déjà mieux que certain site-blog tech sur lesquels on tombe lorsque on ne sait plus la commande X pour faire un truc à la con.
A ce propos, je n’ai toujours pas testé ChatGPT ou autre ( pour les questions tech ou autre).
Y a-t-il des projets en auto-hebergement ou des sites web ne nécessitant pas de s’enregistrer / créer une nouvelle adresse comme AUTOMATIC1111 mais pour du chatGTP ou un autre truc dans ce genre ?
merci pour le lien AUTOMATIC1111 je vais tester cela
Le 04/05/2023 à 18h25
Je suis en train de tester InvokeAI proposé par Eglyn, interface plus simple que AUTOMATIC1111 et tout aussi facile à lancer. Automatic a des params un peu cryptiques et l’interface est assez fouillie.
Par contre je le trouve plus lent à traiter avec un même modèle que Automatic.
Le 04/05/2023 à 20h14
Effectivement certains paramètres sont assez abscons.
Par contre il faut vraiment savoir ce que l’on veut avec une description claire et précise.
Par exemple, avec “ a human on a hors”, vous aurez bien une silhouette d’un ou une humain(e) sur un cheval, mais il faut pas s’approcher de trop près.
Du coups j’aimerais bien savoir comment l’AI a été paramétrée. Car je doute que avec:
“Écrit un article journalistique de présentation du site https://www.tech-generation.fr/” j’arrive sur quelque chose ressemblant de près ou de loin à l’article de Mathilde.
Le 05/05/2023 à 06h18
En fait la génération d’image dépend déjà du modèle utilisé. Celui de Craiyon est disponible sur HuggingFace si je ne m’abuse, il s’appelle Dall-E Mini (et fait une dizaine de GB je crois).
Tu as beaucoup de modèles spécialisés sur HuggingFace ou encore Civitai (perso j’alterne avec des modèles type “photo”, d’autres type “rendu anime”, des spécialisés pour des besoins que j’ai eu, etc) et derrière ce sont les Lora qui viennent améliorer le rendu. Et ensuite faut faire de nombreux essais.
Dans tous les cas, une pratique qui me paraît bonne pour le moment, c’est de continuer de travailler sur un canevas de 512x512 car c’est le format sur lequel les modèles sont généralement entraînés. Ensuite, il faut passer en post traitement (img2img, imgpaint, etc) pour affiner / corriger / améliorer. Perso quand je commence à avoir une composition qui me plait, je passe le Seed en argument pour la garder et là je lui demande un batch de 3x3 images.
Pour le coup, InvokeAi a un outil de post-traitement largement plus accessible que Automatic (son unique canevas). Mais ses temps de traitement sont trop longs sur ma machine. Typiquement une image que Automatic1111 m’aurait générée en 1 minute prend 6 chez InvokeAI avec les mêmes params / Lora utilisés.
Après le prompt, c’est quasi de la prog de params avec les weights à donner, les negative, etc.
Tu peux aller sur Civitai, c’est un site de galleries de rendus et de modèles. Les prompts / modèles / Lora ayant servi à générer les images sont affichés. Ca inspire beaucoup !
Concernant la partie texte d’un article, si ChatGPT aujourd’hui ne sait pas sortir sur le Web (le plugin “Browser” n’est pas dispo il me semble), tu peux extraire un contenu et le lui donner à manger. A partir de là il pourra broder une prose.
Le 04/05/2023 à 11h40
Bof, ça changera pas des 3⁄4 des sites connus reprenant simplement les dépêches AFP, Reuters, Bloomberg en se contentant de changer quelques phrases et encore.
Le 04/05/2023 à 12h21
Ah ben content d’un article qui montre un peu les choses positives que peuvent apporter ChatGPT et ses clones :)
Le 05/05/2023 à 10h46
Curieux de lire tech-generation, bon c’est très loin d’être agréable à lire :
Les titres sous forme de question ! Perso je déteste ça, surtout quand c’est systématique. Je ne sais pas où le moteur génératif est allé cherché son modèle, mais franchement j’aimerais lui dire de varier un peu les styles et les approches en fonction des sujets…
Les articles bourrés de proverbes, là franchement on atteins un sommet de beaufitude et d’ennui !
Peut-être faudrait-il donner à l’IA des noms de vrais journalistes pro sur lesquels baser leur génération de texte, en leur demandant de faire un mix de leur styles en fonction du domaine des articles : par exemple :
Si c’est des articles orientés économie / finances, avec des termes tels que “marché”, “usine”, “bourse”, “capital”, “bénéfices”, “actions / actionnaires” etc… (bon je suis un béotien, mes termes sont donc un peu voire complètement à côté, mais vous voyez le principe général, hein ?) …s’inspirer de tel.le ET tel.le et tel.le journaliste, mais sans les plagier.
Si c’est des articles de tech pure (news matos par exemple) : s’inspirer de tel.le ET tel.le… autre journaliste, toujours sans les plagier.
etc… (news RS, news services, applications….)
Donc, comme dit plus haut ce serait certains mots-clé bien ciblés qui permettraient à la ou aux IA de faire la différence entre un article sur un nouveau SSD et un article sur une nouvelle appli sociale, ou une nouvelle tendance du marché de la tech, etc… et de choisir les “journalistes-modèles” concernés, afin de faire un mix original de leurs tons et de leur approches respectives.
Là, on atteindrait peut-être un niveau de plaisir / intérêt de lecture / cohérence un peu plus élevé… Avec toutes les limites auxquelles on peut penser…
…En d’autres termes : faire un peu baisser le niveau d’absurdités, d’incohérence et de bizarreries des articles… Et SVP, les rendre un peu moins répétitifs et lassants… Et, encore SVP, arrêter les tentatives d’humour, c’est n’importe quoi !!
Le 05/05/2023 à 11h18
Illustration : cet article, manifestement inspiré par Tech Crunch, bon à part le titre qui est absolument n’importe quoi, est un des rares articles que l’on peut lire sans trop grogner.
Et si l’on va à la source indiquée en lien pour comparaison, semble étonnement cohérent. Je crois donc que le secret, c’est de s’inspirer, si possible de sources multiples, de mixer tout ça, mais sans jamais plagier.
Le 05/05/2023 à 11h29
Tu pointes le doigt sur quelque chose de vrai de mon expérience : les contenus générés par AI SONT chiants.
Mais en soit c’est pas de la faute de l’outil, c’est ce qu’on lui demande à cause du sempiternel politiquement correct qui vise à n’offenser personne. Il suffit de voir les tempêtes dans les verres d’eau rapportées ici même avec les habituelles accusations : l’IA est sexiste, elle est raciste, elle est vilaine avec les minorités, etc, etc, etc.
Même pour de la pure technique, ChatGPT est chiant à cause des limitations qui lui sont imposées. Demande lui de générer un code pour tester un SAST, une détection de secret ou autre, il va immédiatement se retrancher dans le “As a language model I cannot do that, it’s bad you know m’kay”. Et même quand il accepte la production d’un contenu litigieux à force de lui tirer les vers du nez, il va balancer un rappel disant “cépabien”.
Du côté des générateurs d’image, heureusement il existe des modèles qui n’ont pas ces barrières et avertissent même du risque de générer du contenu dit “choquant”. Mais sinon c’est pareil, ils sont bridés à en mourir.
Mon avis : l’IA reflète la censure que la société impose. Résultat, elle est chiante.
Le 05/05/2023 à 12h58
Effectivement, je pense qu’il faut être excessivement prudent quant à lever certaines restrictions, qui ne sont pas là pour rien et ont leur utilité pour empêcher les dérives. Ces règles limitantes ont une origine : les dérives racistes (entre autres) de Tay, le premier agent conversationnel lancé par Ms en 2016, qui a traumatisé plus d’un éditeur, développeur et autre chercheur en AI.
Mais je pense que - par exemple - l’AI devrait être plus affûtée quant à la recherche de contradictions, d’omissions voire d’erreurs dans une information, en se servant de multiple sources considérée comme “sérieuses”, “de confiance”, “honnêtes” et/ou “officielles”.
En entrechoquant toutes ces sources (et en recherchant les sources de ces mêmes sources, si celles-ci sont mentionnées), une IA pourrait facilement faire un exposé mentionnant tous ces points de vue différents sur un même sujet, en citant ses sources et en les comparant entre elles.
L’Ai devrait être autorisée à chercher même au sein de sites plus ou moins “confidentiels”, voire inconnus (mais d’accès public), comme des bases de données d’état, des rapports d’entreprises de toutes sortes, de sites de pré-publication tels que ArXiv, etc…
Rien qu’avec des sources librement accessibles (ou non protégées), il y a largement de quoi faire ! Un.e journaliste pro pourrait ainsi découvrir des erreurs, des contradictions, voire des mensonges, qui lui auraient sinon échappés…
Ce ne serait certainement pas aussi efficace qu’un.e vrai.e documentaliste, connaisseur.se du ou des sujets évoqués, mais…?
Le 05/05/2023 à 12h10
Nick Cave says ChatGPT’s AI attempt to write Nick Cave lyrics ‘sucks’ (bbc.com 17/01/2023)
Nick Cave dit que la tentative d’IA de ChatGPT pour écrire les paroles de Nick Cave craint
Le 05/05/2023 à 12h20
Traduction : “Les limitations ne sont pas là pour éviter que ChatGPT parte en vrille, elles sont là à cause de considérations morales absconses.” Ce serait drôle, si ces propos n’étaient pas inconscients de la faillibilité et des performances littéraires moyennes de l’outil.
Le 05/05/2023 à 15h21
En fait le détail qu’on oublie dès lors qu’on veut mettre des critères moraux dans l’AI, c’est qu’elle n’en a pas. Même chose quand on pointe le fait qu’elle dise des conneries ou bien qu’elle génère du contenu “faux”. Un modèle GPT n’a pas de notion de vérité, tout comme il n’a pas d’avis ou de critères moraux. Typiquement sur les accusations de sexisme, le modèle n’a - en principe - pas été spécifiquement conçu pour en faire. Il ne fait que de refléter son jeu d’entraînement.
C’est pour ça que la doléance la plus importante à mes yeux, c’est la transparence sur les données d’entraînement.
En fait un truc que j’observe vu de ma fenêtre avec les débats moraux sur l’IA, c’est que la peur principale qu’elle déclenche, c’est celle de montrer un miroir de nos sociétés fort peu gratifiant. Et y’a pas beaucoup de monde qui aime qu’on lui mette le nez dans sa merde.
Le 06/05/2023 à 06h18
Tu as l’air de te placer sur le plan de la recherche (les chercheurs ont évidemment accès à l’IA prototype). Et personne n’interdit les développement de l’IA. Ce que tu appelles étrangement “accusations” concernent des affirmations qui sont illégales. Et c’est normal que le produit mis à la disposition du public obéisse à la loi. Ce n’est pas l’outil qui est responsable devant la loi mais ses concepteurs.
Perso, ça m’interroge sur ta propre moralité, ou sur ta conscience, d’accepter des erreurs, voire des dérapages qui nécessitent un arrêt d’urgence de l’outil, en arguant qu’on brimerait l’outil. J’ai presque l’impression que tu regrette surtout d’être personnellement brimé dans ton propre usage de l’IA. Ça me fait penser aux conducteurs de voitures de sport qui prétendent que les limitations de vitesse ne servent à rien.
Là, je suis d’accord.
Lis des livres de sciences humaines, ça renvoie généralement une image peu glorieuse de nos sociétés. S’il fallait vraiment un outil technologique pour blesser son propre égo, il existe les médias sociaux.
Le 05/05/2023 à 15h36
Le 05/05/2023 à 16h21
+1
auto response:
Pas encore testé et je découvre le site, mais voir : “j’ai lance un mini chatgpt en local sur mon cpu avec gpt4all”
Le 06/05/2023 à 15h11
Je te prierai d’éviter ce genre de jugement sur ma personne.