L’IA générative sur Next : retours d’expériences
C’est GenIAle

Mais au fait, sur Next, qui utilise l’IA générative et comment ? Bonne question. On va tâcher d’y répondre (spoiler : c’est variable en fonction des personnes). Si l’IA a déjà écrit des lignes de code pour moi (et pour vous), elle n’a pas généré le moindre caractère de texte dans nos actualités.
Le 24 mars à 17h59
12 min
Next
Next
L’arrivée de ChatGPT a été un bouleversement très important et il faut bien avouer inattendu, d’autant plus avec la déferlante d’IA génératives par la suite chez tous les géants du Net (ou presque). L’intelligence artificielle en elle-même n’a rien de nouveau. Même OpenAI, créée en 2015, n’a pas attendu ChatGPT pour faire parler d’elle. Nous revenions sur ses travaux en 2017.
L’IA générative est nouvelle, pas l’intelligence artificielle
L’année précédente, en 2016, l’intelligence artificielle AlphaGo de DeepMind (filiale de Google) marquait les esprits en dépassant l’homme au jeu de Go. Les échecs et les dames étaient déjà tombés. En France, le sujet est sur la table depuis de nombreuses années. Début 2018, il y a eu deux gros rapports sur l’intelligence artificielle : celui de la CNIL puis de Cédric Villani. Et chez Next ?
Next est une équipe composée de six journalistes – Alexandre, Jean-Marc, Martin, Mathilde, Sébastien et Vincent –, d’un dessinateur au talent inimitable – Flock – et d’un directeur de la publication – Ferdinand Chevrant-Breton. Nous sommes spécialisés sur les enjeux du numérique au sens large, avec une approche plus ou moins technique des sujets.
Il n’y a que les imbéciles qui ne changent pas d’avis
Sur l’intelligence artificielle, nous avons à maintes reprises rappelé les enjeux pour la société, les risques qu’entrainent les nombreux biais, les hallucinations et les avantages que cela peut procurer. Mais, qu’en est-il chez les journalistes de Next ? L’IA est-elle au cœur de nos usages ?
Je ne parle pas ici de l’intelligence artificielle classique que l’on utilise déjà depuis des années pour de la traduction de texte ou de la transcription audio par exemple (même si elle s’est grandement améliorée ces derniers temps). Mais bien d’IA générative pour des tâches plus complexes.
À titre personnel, mon approche a changé durant les derniers mois. Alors que je l’utilisais assez peu, l’IA générative est devenue un outil presque comme un autre, si ce n’est qu’il faut la surveiller comme le lait sur le feu. Enfin, c’est plus particulièrement un outil pour créer des outils, pas un outil que j’utilise au quotidien pour un oui ou pour un non.
Oui à l’IA générative, mais sous étroite surveillance
Vous l’avez certainement remarqué, mais l’IA générative m’aide lorsqu’il faut développer des extensions pour les navigateurs. Je regarde évidemment le code et prends conseil auprès de développeurs pour certaines parties que je juge sensibles. Mais cette aide ne s’arrête pas là.
L’IA générative me permet de voir une partie de mon travail autrement, d’aller plus loin dans certaines analyses. Un exemple récent dont nous reparlerons rapidement sur Next. Je voulais travailler sur un fichier CSV contenant près de 10 millions de lignes. Je pensais utiliser LibreOffice pour effectuer quelques tests et relevés. Loupé. Le tableur Calc limite à 1 048 576 (2²⁰) lignes, même chose pour Excel.
Pas grave, d’autres solutions simples à mettre en place existent, notamment avec Python. Je peux bricoler un bout de script maison sans trop de problème… mais est-ce bien utile (enfin plutôt rentable) ?
Un passage par une IA générative m’a permis, en un seul prompt, d’avoir les fichiers dont j’avais besoin pour mes analyses, avec des fonctions supplémentaires que j’aurais mis beaucoup plus de temps à coder moi-même (je ne suis pas développeur).
Avec l’IA générative, cela ne m’a demandé que quelques minutes pour valider le PoC (Proof of Concept) et déterminer que le sujet méritait d’y passer du temps. Le code ne faisant que quelques dizaines de lignes (avec les commentaires), il est rapide de vérifier qu’il fait bien ce qu’on lui demande.
L’IA générative en complément des moteurs de recherche
Il y a d’autres domaines dans lesquels l’IA générative est une aide utile. Sur certaines recherches un peu techniques par exemple. Un moteur comme Google donne certes des résultats, mais une IA générative essaye d’apporter une réponse. Dans mon cas, elle apporte généralement bien plus d’éléments puisqu’il s’agit d’une somme de différents savoirs et pas d’une série de sites.
Baissez les fourches : je ne prends évidemment pas pour argent comptant ce qu’elle raconte, loin de là. Je vérifie systématiquement ses affirmations, mais dans l’ensemble, elle se trompe assez peu et propose souvent de meilleurs résultats que Google, du moins plus rapidement. Il m’arrive par exemple de poser des questions à une IA générative, puis de passer sur Google pour chercher la source et confirmer (ou pas).
Ce ne sont pas exactement les mêmes usages, mais une fois qu’on sait utiliser cet outil, je dirais que le gain est intéressant à la fois en temps et en perspective (aller plus loin dans ses idées). Pour l’empreinte environnementale, je le concède, c’est une catastrophe.
Dans certains cas, je commence par une IA générative, dans d’autres directement avec un moteur de recherche plus classique, cela dépend de mes besoins, du sujet, etc. Ne pas oublier qu’un moteur de recherche peut envoyer vers un site de fake news, d’approximations et de contre-vérités. Dans tous les cas, la règle d’or est la même : vérifier, vérifier et vérifier.

Les cas d’usages qui ne marchent pas (pour ma part)
J’ai mené plusieurs expérimentations sur des synthèses de documents et même des demandes de résumés de certaines de mes actualités pour voir le résultat, sans être convaincu (loin de là). Nous avons mené plusieurs campagnes de tests sur les commentaires de Next, là encore sans arriver à un résultat satisfaisant pour le moment (mais on ne désespère pas !).
Finalement, c’est un peu comme les logiciels de détection automatique de spam : je n'ai pas confiance et je vérifie… et j’ai raison de vérifier, car les erreurs existent bel et bien. Donc faut-il les utiliser ? Pour les spams non, pour l’IA générative oui, mais avec vérification… comme toujours.
Dans la rédaction, les avis sont plus tranchés. La grande majorité de nos journalistes n’utilisent pas l’IA générative (au-delà de la traduction, transcription…), sauf parfois pour quelques tests, mais rien de régulier.
Alexandre s’en sert « globalement peu »
Alexandre s’en sert « globalement peu », avec deux pistes (au-delà du contrôle des traductions) : des suggestions de titres et des synthèses de conférence, par exemple, pour extraire les dix points saillants sur la transcription d'une heure de call de résultats financiers (chacun ses petits plaisirs…).
Le premier point m’intéresse et Alexandre me confirme que « ça marche » pour lui donner des idées. De toute façon, nous, humains de la rédaction, avons toujours le dernier mot. C’est validé, je vais m’y mettre aussi quand je tourne en rond. Concernant le risque de passer à côté d’informations pertinentes avec les synthèses, Alexandre confirme : « il y a un risque bien sûr, mais de toute façon, c'est une conf que je n'écouterais pas ». « Donc, sans l'IA, je passerais assurément à côté de l'éventuelle information ».
Ce cas d’usage est pour le moment en phase de rodage chez notre directeur de la rédaction, avec peu de retour d’expérience. Mais en tout cas, il a « validé l'intérêt du scénario ». Personnellement, je dois reconnaitre que l’argument se tient et je vais aussi sauter le pas. En effet, sans rien lire, je suis sûr à 100 % de rater une éventuelle info d’un rapport que je ne lirais pas. Avec l’IA générative, j'ai peut-être une chance de l’avoir dans les points saillants. C’est mieux que rien.
Vincent se demande à quoi l’IA générative pourrait lui servir
Qu’en est-il des autres qui n’utilisent pas l’IA générative dans le cadre de leur travail ? Pour Vincent, il y a deux « peurs » liés à l’écriture : se sentir « dépossédé » et le risque de « dépendance ». Il y a aussi une question centrale en suspens : « à quoi l’IA générative pourrait-elle vraiment me servir ? ».
Vincent se pose aussi la question de la « consommation énergétique » des IA génératives. Un sujet important, mais sur lequel nous avons en effet peu d’informations fiables et précises.
Mathilde : « cout environnemental excessif » et manque de respect
Mathilde aussi soulève la question écologique, avec un « cout environnemental excessif », surtout pour ses usages… car elle n’a pas identifié de cas évident pour le moment. Dans des usages connexes à son travail sur Next, c’est par contre un début de réflexion. Mathilde est aussi écrivaine (Technoféminisme), alors le sujet de l’écriture de romans par l’IA générative la questionne.
Mais, concède-t-elle, l’envie de tester le sujet en donnant ses notes à ChatGPT « pour voir comment il écrit » fait quelquefois son chemin. Si elle ne l'a pas fait jusqu'à maintenant, c'est parce qu'elle se demande « comment tracer une ligne éthique claire ».
Dernier point et pas des moindres, Mathilde me rappelle que les grands modèles se basent sur des « technologies construites par des boites qui ne respectent pas » les droits d’auteurs, les données, le travail journalistique, etc. Ce n’est pas rien !
Martin et l’IA générative : « éthiquement, ça me freine »
L’« utilisation de données dont ils n’ont pas les droits » est aussi un des points mis en avant par Martin, de même que « le travail délocalisé » : « éthiquement, ça me freine ». La question des ressources est aussi mise sur la table. L’intérêt aussi : « Je suis meilleur avec un moteur qu’avec une IA », donc pourquoi changer ? Pour le moment, Martin n’y voit pas d’intérêt dans le cadre de son travail.
Jean-Marc « n’a pas trouvé d'usage à ce stade » et se méfie
Jean-Marc non plus « n’a pas trouvé d'usage à ce stade ». De plus, il « sature avec les inventaires à la Prévert de type "Les 10 outils incontournables" que ne cessent de partager sur LinkedIn tous ces consultants et pros de l'IA » afin d'y promouvoir leurs prestations.
« Je suis bien en peine de pouvoir tester les milliers de services disponibles », ajoute-t-il, nonobstant le fait que nombre d'entre eux sont en mode freemium, et donc payants. Et, bien sûr, son enquête sur les sites d'info générés par IA a accentué sa méfiance.
Sans compter la question environnementale, pour lui aussi importante : « Je n'ai ni le temps ni l'envie de m'"amuser" avec des systèmes qui polluent autant (électricité, eau, CO2, gaz, charbon…) ».
Flock est déjà dans un monde sans I(A) ?
Et Flock dans tout cela ? Il utilise l’IA générative (d’image) « dans un cadre spécifique, pour certains cas d'illustration (besoin de la représentation d'une caisse enregistreuse sous tel angle par exemple), comme modèle pour mes brouillons, uniquement les brouillons, jamais un rendu final ».
Cela lui permet d’avoir « plus facilement en tête une image dans un but préparatoire ». Il peut ainsi gagner du temps… à condition que l’IA n’hallucine pas. Et n’allez pas croire qu’il a le bon résultat du premier coup, il doit parfois (souvent ?) s’y reprendre à plusieurs reprises.
Vous retrouvez pour rappel sa chronique tous les samedis avec des dessins en rebond sur l’actualité ou parfois une bande dessinée. À lire et relire, sans modération.
Et vous ?
Cet édito est aussi une forme d’ouverture aux confrères : que pensez-vous de l’IA générative dans le cadre de votre travail ? Quels sont trucs et astuces ? De manière plus générale, l’IA générative a-t-elle changé votre manière de travailler ? Est-elle devenue une alliée ou au contraire une concurrente ?
Et pour répondre à cette éventuelle question : non, je n’ai pas peur qu’une IA générative me remplace à court terme. Si mon travail ne vaut pas plus que quelques centimes dans un LLM, alors autant changer de travail. Et, quand je vois les sites GenAI identifiés par Jean-Marc, je me dis qu’il me reste encore de la marge…
L’IA générative sur Next : retours d’expériences
-
L’IA générative est nouvelle, pas l’intelligence artificielle
-
Il n’y a que les imbéciles qui ne changent pas d’avis
-
Oui à l’IA générative, mais sous étroite surveillance
-
L’IA générative en complément des moteurs de recherche
-
Les cas d’usages qui ne marchent pas (pour ma part)
-
Alexandre s’en sert « globalement peu »
-
Vincent se demande à quoi l’IA générative pourrait lui servir
-
Mathilde : « cout environnemental excessif » et manque de respect
-
Martin et l’IA générative : « éthiquement, ça me freine »
-
Jean-Marc « n’a pas trouvé d'usage à ce stade » et se méfie
-
Flock est déjà dans un monde sans I(A) ?
-
Et vous ?
Commentaires (68)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 24/03/2025 à 18h12
Le 24/03/2025 à 18h18
Le 24/03/2025 à 18h25
Je pense qu'un usage comme celui qu'en fait Alexandre peut être utile à tous.
Remarque : Flock a fait usage d'IA générative une fois pour tester ce que ça donnait et en annonçant qu'il l'avait fait.
Le 24/03/2025 à 18h31
Le 24/03/2025 à 18h53
Le 24/03/2025 à 19h02
Et j’ai volé comme une IA le dessin de Flock de cette chronique pour le reprendre sans vergogne dans mon actu
Le 24/03/2025 à 18h50
Et vu que chaque employé à son compteur de crédit personnel sur l'instance "maison" de chatgpt, je suppose qu'à la fin de l'année on me dira "tu ne l'as pas assez utilisé". Les rares fois où je l'ai fait, c'est pour des conseils d'optimisation de code, et au final Mistral m'a plus aidé que Chatgpt. Je vais donc être obligé d'utiliser un outil qui m'apporte moins de qualité qu'un autre, juste parce qu'un crâne d'oeuf en haut de la pyramide l'a décidé.
Mais je pense que je résiste pour rien, comme pour les rézosocio il y a quelques années. Je ne les adopte pas car ils heurent mes principes (énergivores, respect des droits, mainmise étaunienne ou chinoise,...), mais la jeune génération plonge dedans, ce qui rend le service de fait INdispensable. Tout comme moi il y a 20 ans j'ai adopté le téléphone mobile, alors que mes aînés disaient "jamais je n'en aurai un, pas d'utilité, le fixe me suffit".
Le 27/03/2025 à 15h39
Tous mes amis (vieux comme jeunes) ont insta, fbook, etc...
Pas moi, je n'ai même pas whatsapp et... jai toujours les mêmes amis.
Je ne comprends pas en quoi le fait qu'ils les utilisent rend ces réseaux indispensables, de fait ?
Pas d'animosité, juste de la curiosité, pour ma culture personnelle car je n'ai pas adopté les réseaux sociaux pour les mêmes raisons que vous.
Le 24/03/2025 à 19h10
Est-ce que vous l'avez déjà utilisé dans ce mode "relecture" ? (Sur des éditos par exemple)
Modifié le 24/03/2025 à 19h16
Si j’ai besoin d’un avis critique je m’adresse à mes collègues et/ou des spécialistes
Edit : il y un usage tout de meme a bien y réfléchir dans certains cas : la correction orthographique
Le 24/03/2025 à 19h53
et parfois c’est le message d’erreur lors d’une compilation/exécution d’un programme.Désolé, mais avec la suite, c'était trop tentant.
Oui, c'est peut-être un point. Je voulais le suggérer mais j'ai oublié. Si ça peut m'éviter quelques signalements juste sur l'haurteauggraffe !
Le 24/03/2025 à 19h17
Le 24/03/2025 à 19h21
je l'utilise avec succès pour :
- faire un premier niveau de recherche d'info à partir d'orthographe approximative et contexte (si j'ai l'orthographe wikipedia est généralement meilleur)
- générer du texte à partir de texte sommaire (ça fournit de la matière brute à retravailler, mais ça accélère mes rédactions surtout en anglais)
- générer du pipo pour mettre en valeur des résultats, écrire des conclusions, etc. (et là c'est limite trop ronflant)
succès mitigés pour la génération de codes simples (python, VBA), c'est généralement bon, mais j'ai rencontré des problèmes du genre :
* solution est trop brute et inadéquate pour les performances (dans le parcours de données)
* code halluciné (syntaxe d'expression régulière pour une fonction de recherche qui ne les comprend pas)
échecs:
- dès qu'on rentre un peu dans un domaine spécialisé que je connais, je vois plein d'erreurs (donc je n'utilise pas pour les autres domaines)
- notre IT a fait une version où on peut questionner sur des documents entrés en contexte, pour une analyse technique d'appel d'offres (AO) par exemple, et là c'est pas terrible, que ce soit sur des données techniques (domaine spécialisé), des données chiffrées (date de l'AO, prix cible) ou juste identifier le sujet de l'AO
Le 24/03/2025 à 19h46
Le 25/03/2025 à 11h25
Le 25/03/2025 à 13h23
Pour le coup des expressions régulières je te conseilles de rajouter des exemples : je commence par un prompt de ce que je veux pour le regex, puis je lui montre 3 exemples valides et 3 exemples ko.
utilisation pro exclusive sur Copilot Web
Le 24/03/2025 à 19h49
Pour le côté perso, je m’en sers comme d’un moteur de recherche amélioré. Pas envie de passer mon temps à chercher sur 10 sites avant de trouver la réponse que je souhaite.
Modifié le 24/03/2025 à 20h26
J'ai déjà étalé mon usage personnel ici, mais si je devais en faire une synthèse :
Aujourd'hui, l'IA générative c'est mon assistant de travail dans plusieurs types de tâches.
C'est mon moteur de recherche avancé où le modèle génère les requêtes puis analyse les résultat. Pour cela, j'utilise une instance maison de SearxNG (qui est mon moteur par défaut) couplée à OpenWeb UI. J'utilise généralement une version abliterated de Llama 3.2, car il a, pour le moment, le meilleur ratio en perfs et qualité de traitement. Version abliterated pour limiter cette putain de censure que j'abhorre. Quand je suis moins pressé, j'exécute un Mistral Small 24b mais il est très long à travailler sur ma machine.
Un cas récent : j'ai voulu voir comment LaTeX fonctionnait pour apprendre à mettre en forme un récit avec. Il m'a été très difficile de trouver des ressources simples pour s'y mettre sur le Web et je commençais à me dire que je perdais mon temps. Les exemples marchaient pas toujours ou c'était mal expliqué. J'ai fait du pas à pas avec le chat de Mistral, en une heure c'était plié et j'ai globalement compris la structure du langage.
C'est mon assistant dans le domaine pro pour rechercher et comparer des choses rapidement. Trouver un truc sur le Web est devenu une véritable plaie avec des articles souvent verbeux remplis de vide, sans oublier évidemment les contenus auto générés inutiles comme vous en avez déjà parlé (une version Next Fucking Level des anciennes fermes SEO pleines de vide traduites à la truelle qui, si je devais désactiver mon bloqueur, ressembleraient à un sapin de noel enflammé). Voire à côté de la plaque par rapport à ma recherche.
C'est une aide pour scripter / coder rapidement en travaillant avec des langages que je connais. Je n'irai pas lui demander de me générer du code Java ou NodeJS ou autre, car j'y connais rien et je ne saurais pas challenger le résultat, ni le modifier, voire pas l'utiliser sans aide. Je vérifie systématiquement ses résultats, au même titre qu'il fallait (et faut) toujours vérifier un résultat Stackoverflow avant de le copier/coller bêtement.
C'est mon assistant d'écriture avec un modèle paramétré pour dans OpenWeb UI. Il me fournit des itérations pour des descriptions, des possibilités, des scènes, des mises en situation, propose plusieurs issues, je trie parmi tout ça. C'est grosso merdo un canard en plastique pour faire du brainstorm. Fut un moment où j'utilisais du LLM pour vérifier des tournures et des lourdeurs, mais les modèles généraux se révèlent inefficaces : ils écrivent avec beaucoup de verbes faibles, des répétitions, une rythmique hachurée qui se reconnaît rapidement, bref, ils sont nuls. Le modèle spécialisé d'Antidote dispo depuis la version 12 est déjà mieux pour détecter les lourdeurs ou tournures passives mollassonnes, mais c'est pas encore la panacée et ses propositions sont moisies 3 fois sur 4 (et hyper lissées, politiquement correct à la noix. J'ai dû le faire pleurer avec certains de mes personnages). Dans son cas, je garde parfois la structure technique de la phrase et me contente de l'améliorer.
J'ai testé le cas d'usage synthèse pour produire un synopsis (un vrai, pas un résumé) d'un de mes récits. Faute de puissance et limité par la taille du contexte, j'ai dû me limiter à une nouvelle très courte, mais ça fait le taff. C'est pas parfait non plus. J'ai tenté par curiosité de faire générer la quatrième de couverture de mon roman à partir du synopsis, mauvaise idée : il a tout mélangé. Les "critiques" sont généralement fades et plates. Ce qui est, de toute façon, le sentiment général face aux LLM. Ils sont tellement lissés qu'ils sont incapables d'être incisifs ou "critiques", justement.
J'utilise beaucoup la génération d'image avec Stable Diffusion en local, il fait fumer ma vénérable 1080 GTX qui est le minimum syndical (je n'ose pas utiliser ma vraie machine de jeu qui possède une RTX 2080 plus adaptée, j'ai juste peur que ça l'use trop vite et elle a coûté trop cher). C'est super pour prototyper une scène ou un rendu, mais ça se trahit très rapidement. Je n'ai pas assez de puissance pour travailler du img2img, donc la retouche est toujours un peu complexe. Les couvertures de mes nouvelles ont été générées par IA. Les premières datent un peu et sont plutôt basiques, la toute dernière que j'ai obtenue avait un chouette résultat que j'ai beaucoup aimé. Un peu de montage pour ajouter des détails et un passage par Inkscape pour mettre le titre et j'étais très satisfait.
Pour mon roman, je compte faire appel à un vrai illustrateur afin de passer le Next Fucking Level (again). Forcément, le coût n'est pas le même. Mais SD reste très pratique pour générer des idées de ce que j'attend, ce qui est mieux que de me confondre dans des explications qui ne seront pas comprises. Une chose que j'ai apprise en débutant dans l'écriture de fiction : les lecteurs n'imaginent presque jamais une scène comme l'auteur l'a imaginé. Donc ce moyen me paraît pertinent pour guider la personne avec qui je travaillerai pour l'illustration (en plus d'exemples de couv réelles qui j'aime niveau style). Bref, ça permet de construire son cahier des charges. Tout comme il est très bien pour faire un rendu de description.
Jusqu'ici, j'ai beaucoup évoqué le fait que je travaillais avec du modèle en local. C'est limité et ça demande de la patate pour les faire tourner dans des conditions idéales (en gros une bonne machine gaming pour SD, un gros CPU et beaucoup de RAM pour Ollama, GPU recommandé mais pas indispensable). Les modèles sont limités car ils ont très peu de paramètres comparés à ceux hébergés (Mistral Small a 24b versus Large avec ses 195b par exemple), ils sont donc moins précis ou efficaces. Mais de mon expérience, les modèles de 8 ou 12b sont déjà globalement bons. Les micro modèles à 1 ou 2b sont bien juste pour traiter des trucs très simples.
Quand j'ai besoin d'un modèle puissant hébergé, je travaille avec la plateforme de Mistral. Pour le moment, l'offre gratuite me convient, mais je songe à prendre l'abo comme à l'époque j'avais celui pour ChatGPT. La génération d'image de Pixtral est pas mal du tout, mais le quota gratuit quotidien est très limité (logique, ça coûte). Evidemment, il faut faire attention à ce qu'on lui donne.
En ce qui concerne l'aspect autour de l'IA générative, perso je n'ai pas spécialement d'avis.
J'entend les hurlements de la scène artistique, mais au final rien de nouveau. Le travail des auteurs et des artistes est pillé depuis très longtemps sur Internet ne serait-ce qu'avec le piratage de masse. L'IA est censée être entraînée sur des contenus librement accessibles et nous avons un cadre légal dans l'UE pour officiellement interdire le TDM. Dans la réalité, on constate bien que ce n'est pas le cas. J'ai hâte de voir les jugements aux USA concernant le fair use qui risquent de changer la donne pour les entreprises de la Tech (ou pas, on verra). Quant aux entraînements réalisés sur du contenu piraté, pour moi ça reste de la contrefaçon au même titre que les partages illégaux en Bittorrent, streaming ou newsgroup. Je suis même souvent amusé de voir que beaucoup se mettent soudainement à défendre les artistes et les auteurs après avoir vomi sur les ayants-droits pendant des années (cf les débats Hadopi etc. où ces groupes d'intérêts défendaient les leurs). Ce gene d'ironie m'éclate toujours. Peut-être que comme pour l'affaire Google News/médias sociaux (où là aussi la presse a été la cible de "c'est que des vieux gavés aux subventions qui savent pas s'adapter", encore un retournement de veste ironique de l'opinion j'ai l'impression), un droit voisin sur l'entraînement de modèles d'IA va apparaître.
Quant à l'aspect écologique, dans la mesure où j'utilise majoritairement en local, ça revient à une session de jeu vidéo, donc ça ne change pas grand chose en ce qui me concerne. Le plus vorace dans mon usage aura évidemment été l'entraînement des modèles (que je ne pratique pas, je les récupère prêt à l'emploi). Les gros comme Llama ou Mistral ont forcément eu un impact non négligeable à leur production, tout comme SDXL a dû aussi en avoir un. Cela dit, un modèle dérivé de SDXL n'est pas si violent en matière d'entraînement. De mémoire, les personnes derrière ceux que j'utilise pour la génération d'image affichaient des coûts de conso d'énergie aux alentours de 2 à 300$.
L'usage est plus faible en ce qui me concerne (là où les modèles hébergés sont voraces aussi, forcément).
Néanmoins, si je privilégie l'usage local, ce n'est pas pour des questions de conso énergétique, plutôt de vie privée. Sur ce point, même chose, rien de nouveau : les entreprises de la Tech violent massivement la vie privée des personnes (avec leur bénédiction), donc les cris de vierges effarouchées autour de l'IA me blasent.
L'argument sur le côté des travailleurs du clic m'indiffère : l'industrie délocalise dans des pays à bas coût depuis des décennies avec des conditions de travail merdiques. C'est le cas pour les vêtements pas chers (quand le plafond de l'usine ne leur tombe pas sur la gueule) mais aussi des appareils électroniques dont les conditions des employés ne sont pas glorieuses. Pourtant, j'ai rarement vu des gens s'émouvoir de ça. Et n'oublions pas la modération des médias sociaux qui a détruit de nombreuses vies. Ici aussi je ne vois que le standard industriel et rien de nouveau.
Si je devais résumer mon point de vue sur l'éthique de l'industrie de l'IA : c'est la même que l'industrie en général, donc rien de nouveau sous le soleil. Je ne dis pas qu'il ne faut rien faire. J'ai simplement l'impression qu'on découvre dans quel monde on vie depuis des années au travers de cette techno et de ses usages et travers. Ça me blase à peu près autant qu'à l'époque où tout le monde vénérait Google quand on voyait déjà qu'ils s'accaparaient le Web, en utilisant le bon vieux "mais non, don't be evil qu'ils disent".
Quant à l'usage, pour moi la règle d'or est de toujours challenger le résultat de l'IA et le comparer, voire faire réitérer le modèle. Ne pas le faire, c'est admettre qu'on est juste bon à bouffer du foin et croire pour sainte vérité le premier message posté sur Twitter. Et dans ce cas, ne venez pas chialer parce qu'on vous baise derrière.
Voilou, en résumé.
Le 24/03/2025 à 20h44
Merci pour ce retour super circonstancié.
Le 24/03/2025 à 20h59
Le 24/03/2025 à 21h12
(reuh l'autre, comment qu'il donne des ordres hé ! non mais Ô ça va pas la tête ??
Le 24/03/2025 à 21h18
Mais j’ai vu les PR, juste que Claude arrive pas à me pondre un programme satisfaisant pour répondre aux PR à ma place
Le 24/03/2025 à 21h50
Je dis ça, je ne dis rien ^^
Le 24/03/2025 à 21h53
Modifié le 24/03/2025 à 21h42
Contrairement à d'autres comme le metavers ou la blockchain (pour prendre les plus médiatiques comme l'IA), l'impact sur la tech de l'IA générative me semble beaucoup plus concret avec des applications réelles et réellement utiles.
Cette sous discipline de l'IA a embarqué tout un tas de problématique à laquelle elle cherchait à répondre et l'a amélioré (la perception visuelle et audio notamment), sans oublier le bond en avant en matière d'interaction humain-machine. Les assistants vocaux comme Siri et compagnie ont été rapidement dépassés. Et je pense qu'en matière d'accessibilité numérique, on va faire un bond en avant.
Evidemment, y'a aussi les usages moins nobles comme le deepfake et compagnie qui posent de vrais problèmes (là aussi pas nouveaux, mais facilités comme à chaque bond technologique).
Ah, tiens, un cas d'usage que j'ai aussi testé dans le cadre de l'écriture, mais pas beaucoup (assez chronophage) : faire lire un de mes récits par un synthétiseur vocal (j'ai testé coqui tts, enfin son fork car il semble abandonné). Ça permet de se taper des barres avec l'accent belgo-canadien de certains modèles, mais écouter son texte est aussi un moyen de détecter les lourdeurs orales qui ne se détectent pas aussi facilement à l'écrit. J'ai pas trop joué avec encore, le temps de génération est parfois très long et faut itérer sur plusieurs modèles.
Le 24/03/2025 à 21h10
Plus sérieusement, je te rejoins sur beaucoup de chose.
En ce moment, je "challenge" une LLM (Claude, pour être précis), sur du dev. Je précise, le dev, c'est mon métier. Je le fais développer des petites choses et j'essaie de le pousser jusqu'au bout, pour voir jusqu'où on peut aller.
Ce que je note : il n'est franchement pas mauvais, mais loin d'être parfait. Il faut plus ou moins d'itérations, de consignes, etc. jusqu'à obtenir un bon résultat. J'essai sur des projets plus ou moins complexes, avec des techno différentes (un projet pur C#, un autre PHP/Html/SQL, un autre javascript).
C'est un très bon "pisseur de code" (et à une vitesse défiant toute imagination). Je mets plus de temps à relire son code pour le comprendre qu'il ne met à l'écrire ! Mais sans doute moins que si je l'avais écrit moi-même.
Sur mon projet C# de test (générateur d'AST), il commence aussi à montrer quelques limites. Mais il a clairement su poser les bases et faire gagner beaucoup de temps !
J'ai aussi testé l'écriture des tests. Là encore, il faut correctement le guider dans ce que l'on veut pour obtenir quelque chose de bien.
Mes premiers essais (qui ne sont pas encore terminés donc) me confirme en tout cas une chose pour les LLM et le développement logiciel : cela peut être une aide efficace dans des mains d'un dev senior, ça me parait être une dangerosité sans nom dans les mains d'un dev junior (problème de sécu, race condition, mainteabilité, etc.)
Le 24/03/2025 à 21h47
En matière de dev, je me contente surtout de Python. Pour scripter des trucs rapidement, c'est vraiment pratique.
Là où je trouve l'outil efficace, c'est pour la recherche et le dev assisté. Entre 50 recherches infructueuses sur le web et un outil qui arrive à pondre ce que je veux en deux/trois itérations, mon choix est désormais vite fait.
Le 25/03/2025 à 10h18
Une fois qu'on a trouvé le bon prompt il est réutilisable a volonté pour gagner un temps fou.
Il est aussi assez bon pour du conseil d'optimisation, pour l'instant ca a souvent été pertinent.
En dehors de la génération c'est aussi bien plus efficace qu'un google pour trouver des docs / sources correspondant réellement à ma demande.
On est vraiment sur un "clippy" 2.0
Le 26/03/2025 à 11h06
Par contre j'ai vu aussi Claude me reformater un code à ma demande et m'en oublier la moitié
Le 24/03/2025 à 22h46
Côté boulot, elles représentent pour moi une perte de temps énorme à cause de ceux qui les utilisent, et viennent proposer des "solutions" qui n'en sont jamais, et à qui il faut expliquer pourquoi les solutions proposées ne peuvent pas fonctionner.
Le 25/03/2025 à 08h25
Les éditeurs ont compris depuis longtemps que certains secteurs sont pilotés par le métier et "attaquent" donc par ce biais. Résultat, on passe notre temps à filtrer toutes les débilités "clés en main" qui posent soit des risques pour le SI, soit vont coûter une fortune. Ah oui, c'est pas cher en licence, mais c'est pas l'éditeur qui paye les 150 VM nécessaires pour faire tourner son tas de merde.
Le 25/03/2025 à 15h55
L'entraînement ne me choque pas. La génération à outrance et sans intérêt d'image me semble plus débile. Mais des modèles petits ou moyens pour des usages utiles tels que décrits.
Manger du bœuf ou du fromage de vache est un énorme gâchis de ressources par rapport aux légumineuses. Pourtant on est encore beaucoup à en manger "parce que c'est bon".
Le 26/03/2025 à 15h55
Tant qu'à rester sur les ordres de grandeur, on a OpenAI qui a saturé ses 300000 GPU et en a recommandé des dizaines de milliers : comme les cuves en alu, les GPU ça ne pousse pas sur les arbres.
Le 26/03/2025 à 21h45
D'ailleurs, on utilise toujours du SF6, pire faz à effet de serre, avec 1 kg = 24300 kg de CO2. Et on en avait environ 100 kg par PSEM avant de trouver en remplaçant (aujourd'hui 75% de nos PSEM en Suisse sont produits avec un gaz 99% moins polluant). On a publié nos ACV.
Mais on est le squelette du réseau électrique, on ne fait pas des images de sanglier qui fait du VTT pour se moquer des chasseurs.
J'avoue que 300’000 GPU ça parle.
Mais encore une fois, je suis ingénieur dans un domaine de l'énergie qui voit des ACV régulièrement et ça ne me suffit pas. Je veux des vrais chiffres. De même pour les voitures (production vs usage). On le fait nous !
Ne pas me méprendre, je suis un écolo et je ne veux pas relativiser la pollution en disant que c'est pire ailleurs. Je souhaite qu'on énonce les ordres de grandeur pour prioriser nos efforts et mieux responsabiliser les usages (utiles).
Faire de l’IA pour rien c'est inutile par définition. Mais quand je lis que l'entraînement d'un modèle c'est autant de CO2 que 10 voitures pendant 1 an laissez moi rire (il faut que je retrouve ça). Notre usine française a fuit 1200 kg de SF6 l'année dernière, soit environ 30'000 tonnes de CO2 (oui, on y travaille mais cest compliqué).
Je pense qu'on devrait limiter le nombre de modèles et les entraînements inutiles en plus de limiter l'usage inutile tout en ayant une présélection du modèle (taille) selon le contexte et besoin. Mais le ratio entrainement vs usage de modèle non personnalisé montrerait sûrement que le coût environmental est à l'usage (vu le nombre d'utilisateurs).
Dans mon usage perso et pro, je trouve très peu d'intérêt à l'IA passé quelques recherches et traduction. Des collègues l'utilisent plus pour de la prédiction mais ce n'est pas du GenAI, donc RAS.
Sinon, ce n’est pas plus joli pour l'environnement ou les humains que l'industrie lourde. Donc autant dire que si ça ne sert pas à grand chose, autant s'en passer !
Le 27/03/2025 à 10h46
Ça doit être seulement l'alimentation électrique des noeuds utilisés pour l'entrainement. Un DC avec des centaines de milliers de GPU, c'est bien plus que l'impact de 10 bagnoles.
Le 27/03/2025 à 20h37
J'avais cherché sans succès et fini par demander à ChatGPT pour d'avoir si je devais mieux garder ma petite voiture essence de 14 ans ou essayer d'en acheter une (d'occasion) plus récente qui consommerai un peu moins. Je n'avais jamais trop trouvé la réponse.
Le 27/03/2025 à 21h39
Je crois moyennement à la pertinence de demander ce genre de chose à un agent conversationnel.
Le 27/03/2025 à 21h46
Au lieu de critiquer les SUVs sur leur taille on pourrait simplement quantifier leur impact. Ca serait tellement plus simple. Ca doit encore être une histoire de lobby...
Le 28/03/2025 à 12h09
Le 28/03/2025 à 16h37
Le 28/03/2025 à 23h14
Le 25/03/2025 à 00h17
Jamais testé..
S'il faut plus, il faut recompiler l'application...
Modifié le 25/03/2025 à 03h03
J'ai tout de même testé pour ma curiosité, notamment génération de texte/image et même une musique. C'était plutôt bon au final, mais rien qui motiverait à un usage régulier vu que ça ne répond à aucun impératif réel ni professionnel.
L'IA ne peut pas réaliser de la maintenance informatique même simple ni du montage de pièces
Je la montre à des usagers éventuels quand ils en font la demande, mais à part parfois la génération de texte ça ne semble pas vraiment passionner les foules. Et j'explique les limitations (hallucinations, résumés cachant des détails importants, etc.), ce qui ne doit pas aider.
Je fais très peu de code donc je ne l'envisage pas comparé à l'usage de librairies rodées, et comme j'ai peu d'expérience je crains même une maintenance délicate si je l'utilisais en mode copier/coller idiot. Pour reprendre fdorin dans ce thread, c'est sûrement un bon outil pour un dév sénior, mais je n'en suis pas un... j'ai néanmoins la sagesse de le réaliser avant même d'essaier
Par contre je commence à douter de la sincérité des courriers et e-mails que je reçois car rien ne me dit que la personne a effectivement écrit le texte que je lis. Je n'ose imaginer un recruteur lisant des lettres de motivation, ça doit même être contre-productif en 2025... En tout cas ce qui est sûr c'est que ça a dû bien aider les arnaqueurs, au moins pour réduire les fautes d'orthographe et conjugaison vu qu'ils n'ont même plus à taper le texte
Idem, si je vois un texte se prétendant être un résumé genre sur Reddit, je préfère aller lire l'article dont il s'inspire car j'ai déjà eu des cas omettant des détails d'une importance si cruciale que ça réduisait à néant la gravité du sujet évoqué.
j'imagine qu'avec la vieillesse vient une forme de méfiance envers la technologie. Un peu ironique quand on est dedans depuis des décennies
Le 25/03/2025 à 05h24
Une fois il m'a sorti un gros bloc, ça a piqué ma curiosité. Au final plus de temps à relire et corriger que ça ne m'en aurait pris d'écrire.
Notez que je n'y connais pas grand chose.
J'ai lu un résumé d'une réunion qui m'a marqué... "x et y commencent par parler football pour détendre l'atmosphère" (ou un truc du genre . Interprétation correcte), mais utilité dans le résumé ?
Sinon j'étais dans des réunions où un des directeurs pondait le résumé. À chaque fois que je lisais le résumé, je me demandais si on avait assisté à la même réunion. Tout ça pour dire que les IA font bien, ou mal... mais les humains aussi.
Le 25/03/2025 à 08h34
Spoiler alert : s'pas le cas et faut la guider pour obtenir le meilleur résultat. C'est le but du system prompt justement
Le 25/03/2025 à 10h08
Le 25/03/2025 à 10h35
Tu as utilisé quel modèle ?
Le 25/03/2025 à 15h48
En prompt j'ai fait une fois ou deux, purement pour tester, c'était potable.
Je n'ai pas vraiment d'usage pour le moment, je fais des petites modifications à droite à gauche. Si tu as des conseils question modèle je suis preneur.
Le 25/03/2025 à 20h04
Pour ma part je travaille principalement le coding avec le Chat de Mistral, notamment à cause des temps de réponse sur ma machine en local qui font que je n'aurai pas la patience.
Côté modèles, je dirais de voir avec Codestral (celui de Mistral) et Codellama qui me semblent bien évalués. Deepseek R1 m'a pondu des trucs pas mal (par rapport à mes attentes) le peu de fois que j'ai essayé, mais il est lent à travailler sur ma machine parce que c'est un modèle de raisonnement.
Il me semble d'ailleurs qu'il existe des extensions VSCode pour faire un chat bot de pair programming IA comme GitHub Copilot sur lesquelles on peut paramétrer une API custom pour dialoguer.
Le 25/03/2025 à 06h46
Le Monde rapporte aujourd'hui une expérimentation intéressante sur le sujet en Italie : En Italie, le journal « Il Foglio » lance une édition entièrement réalisée par une IA
Le 25/03/2025 à 07h05
Je lui ai fait coder des scripts simples en python mais qui n'est pas mon langage premier. Ça m'a fait gagner du temps.
Puis je lui fait coder une appli plus complexe en React en tapant dans une api rest d'un service de build populaire. Là pour le coup, je n'avais une connaissance. Au moins 90% du code a généré par l'IA, j'ai du faire quelques retouches quand l'IA ne s'en sortait vraiment pas. Mais globalement, j'ai fait la grande majorité du code à coup de prompt : je veux ci, je veux ça, dispose de telle manière, refactor le code ; et surtout, beaucoup de : corrige ton code, parce qu'elle introduisait des erreurs régulièrement, voire cassait le code. Avec des commits réguliers, parfois des reverts.
Au final, pour lui faire coder des choses dans des langages populaires comme Python, JavaScript, Typescript, ça marche très bien parce qu'il y a une base d'apprentissage énorme. Par contre, lui faire coder des choses en C++, c'est plus coton ; l'IA avait énormément d'hallucinations de fonctions qui n'existent pas.
Le 25/03/2025 à 08h23
Pour ma part, je préfère cibler les utilisations.
Pour la correction d'orthographe, j'utilise LanguageTool que j'ai plugué sur mes mails, sur le navigateur et à Obsidian.
C'est très pratique. Je conseille !
Pour la recherche, je suis abonné à Kagi.
J'utilise sa partie de recherche rapide IA quand je n'arrive pas à être précis dans mes recherches. Comme il filtre les sites, j'arrive à de bonnes choses.
Pour le boulot, en tant que développeur, on nous fait utiliser copilot.
J'ai eu pas mal de soucis pour l'utiliser au début. Je n'étais absolument pas satisfait du code généré. Je le trouve très pourri pour le JS quand on veut bien coder. C'est d'une qualité de "scrip kiddies". Ce n'est clairement pas du JavaScript maintenable et optimisé.
Par contre, je me suis mis à travailler différemment pour avoir de l'aide.
Je fais une structure générale avec des premiers fichiers. Quand j'ai besoin d'un nouveau fichier, j'ouvre un déjá bien fait qui va servir de modèle. Je lui fait générer le squelette en écrivant le cartouche.
Puis il m'aide ligne par ligne. J'ai pris pour habitude de commencer par la jsdoc pour déclarer les objets que je veux pour qu'il sache la matière et ça aide bien à avancer. Mais j'avance ligne par ligne. Il dévie déjà au bout de 5 lignes tout seul.
Là où il m'aide le plus, c'est pour les tests unitaires. Comme j'ai fait la découpe avant pour avoir beaucoup de fonctions simples et "pures". Il edt très pertinent. Il me propose même les tests faisables et, en règle générale, je ne fais que relire.
Modifié le 25/03/2025 à 08h58
À l'époque de l'expansion du Cloud, les vendeurs nous promettaient monts et merveilles : plus besoin de sysadmin, tu gères tout toi-même, CAPEX et plus OPEX, t'inquiète-on-s'occupe-de-tout, etc. Sur le papier, oui, suffit de créer son compte, mettre sa CB et youplaboom.
Dans la réalité, c'est créer une passoire dans son SI, foutre tout en public parce que c'est moins cher, et se retrouver avec des ressources pas maintenues / gérées parce que personne n'a la compétence pour et à la fin 300k€ / mois de facture. Parce que le Cloud pas maîtrisé, ça coût cher et que le finops ça s'improvise pas. Shadow IT qui devient vital pour la boîte, ah c'est con Jean Michel est parti plus personne sait comment ça marche.
Les effets sont différents, mais j'y vois le même travers avec l'IA générative : t'inquiète-l'IA-s'occupe-de-tout tu peux virer tes devs. Résultat, code passoire pas maintenu, actions techniques/métier réalisées par des personnes non averties, au loin, des sirènes.
Moi aussi je peux faire le contrôle de gestion d'une entreprise du CAC 40 avec l'aide de ChatGPT si j'écoutais des bullshiteurs comme Altman. Dans la réalité, je préfère m'abstenir et utiliser ces outils pour des tâches dont je sais que je saurais les challenger. Et surtout, apprendre à utiliser ces outils et comprendre comment ils fonctionnent pour être conscient de leurs biais et limitations.
Le 25/03/2025 à 09h08
Le cloud en est un bon exemple. En voici d'autres :
- le NoSQL : beaucoup en sont revenus, les problèmes liés à l'interrogation de données non structurées qui étaient à la base... structurées !
- la blockchain : certains voulaient en mettre partout, sans comprendre les enjeux, juste parce que c'est à la mode. On se retrouvait même avec des blockchains privées avec UN seul acteur en jeu ! On appelle ça "une BD" !!
- le no-code : plus besoin de dev, youpie (sauf que c'est faux, et des outils no-code non maitrisés, c'est se heurter à des gros problèmes (limite en terme d'enregistrement, impossibilité d'exporter ses données, etc.) et de nombreuses start-up se sont prises les pieds dans le tapis à cause de ça
- les micro-services : il faut arrêter le monolithique, tout découper, faire des services et monter un cluster Kubernetes de 3 machines pour faire tourner des services qu'un raspberry pi parviendrait à faire tourner sans problème !
Maintenant ,c'est l'IA, où tout algorithme (ou presque) devient de l'IA, quand bien même ce ne sont que de simples mathématiques (ex: régression linéaire).
Le 25/03/2025 à 09h46
Le coup du NoSQL, j'en ai vu aussi passer des projets à coup de "on a besoin d'une base MongoDB" et derrière ils commençaient à se demander comment gérer les relations... Et j'ai vu l'usage de certains logiciels du marché, c'est juste dégueulasse du genre "j'ai stocké un gros json en string dans un champ parce que je dois tout gérer dedans".
Le 25/03/2025 à 15h52
Le 25/03/2025 à 10h40
Je teste également divers llm via gtp4all pour generer des prompts pour sdxl. Mais je trouve que les llm sont beaucoup trop en mode bisounours. Par contre les traductions sont assez bluffantes.
Prochaines experimentations/recherches prevues: génération de code. Recherche locales et sur internet (perplexity?). Génération d'images -> convertion en modele 3d -> impression
Le 25/03/2025 à 10h51
Bon sinon, c'est tout pourri l'IA générative : c'est à l'encontre de pas mal de mes principes mais je l'utilise tous les jours. Un peu comme si je mangeais un sandwich foie-gras/saucisson tous les midis. J'ai honte. Il est indispensable que je prenne le temps d'avoir ma propre instance, en plus j'ai une 1080Ti. Mais quand je vois ce que me sort 4.5 avec deepsearch... pfff, j'ai tellement honte
Modifié le 25/03/2025 à 11h24
Plus récemment, les réflexions qui ont eu lieu suite aux discours "technobros" de MZuckerberg, EMusk, JBezos … les helloquitteX EscapeX m'ont convaincu de réduire drastiquement ma présence et ma participation aux plateformes de réseaux sociaux publicitaires. J'ai un compte Facebook dont j'ai supprimé la grande majorité de mes publications, commentaires et emoji-reactions. Sachant que MetaAI débarque bientôt sur Facebook en Europe, je suis sur les starting-blocks pour supprimer mon profil si l'intégration ressemble à ce que fait Microsoft et Qwant.
MetaAI ou pas MetaAI, Facebook est déjà rempli de contenus "genAI" (photos, Reels, profils aux comportements étranges). Mastodon également, même si le contrôle de ce que je vois sur Mastodon est facilement contrôlable par moi et par le serveur qui héberge mon profil Mastodon.
L'IA fait maintenant partie de mon quotidien que je le veuille ou non. Une recherche Google et la page de résultats me donne une réponse générée par IA en 1ère page. J'utilise moins Google Search mais ça reste parfois incontournable.
Plus largement et pour conclure, je m'intéresse à la politique locale et je suis régulièrement les conseils municipaux de ma commune. Je vois entre autres sur la question de l'éclairage public que ma commune a investi depuis un an dans un nouveau système d'éclairage public intelligent qui permet de contrôler de manière très fine et précise le réseau d'éclairage jusqu'à des débats en séances du conseil municipal sur l'utilité d'éteindre telle zone ou de réduire la puissance de l'éclairage dans une autre zone ou de garder l'éclairage des ronds points sur demande de la Police nationale, etc. Ça me semble parfois inverser l'utilité de la machine qui devient « maître » (comportement décideur) pendant que l'humain devient « esclave » (comportement adapté). Ça parle « sobriété » « économie » « efficacité » « automatisation » alors qu'on complexifie les systèmes d'information. Autrement-dit, l'IA et l'organisation qui contrôle cette machine, contrôle l'espace public.
Le 25/03/2025 à 11h48
C'est mon seul cas d'usage de cette fonction. Jean-Marc, à lui seul, la justifie.
Le 25/03/2025 à 13h39
J'adore les article de Jean-Marc, mais il faut que je me bloque un bout de mon après-midi pour les lire !
Le 25/03/2025 à 16h06
J'utilise Github Copilot avec VSCode principalement comme une super autocomplétion. Je code principalement en python et en bash. Je pense que la principale différence entre les 2 langages, c'est ma maîtrise personnelle de ceux-ci. J'ai beaucoup plus de difficulté avec Bash, qui est bordélique, mélange de 2 langages et de commandes aux conventions de nommage aléatoires. Je dois donc plus souvent me reposer sur les suggestions de Copilot pour Bash que pour Python, ne pouvant pas forcément compléter moi-même le code pour le diriger dans la bonne direction. Dernièrement, j'utilise pas mal l'outil d'édition de code de Copilot, qui est pas mal lorsque l'on a déjà un code de base et que l'on veut le modifier.
Mais de manière
A côté, chatGPT lui me sert pas mal pour trouver des solutions, pour générer un début de snippet. Lorsque j'ai un problème, je commence généralement par faire une recherche google pour trouver une solution, mais si je ne trouve rien qui ne me convient, je vais du coup demander à chatGPT. Généralement les solutions proposées sont assez bonnes, ou en tout cas me donne une bonne base.
Enfin, pour des questions plus académiques, qui demande une recherche dans des articles scientifiques, je vais utiliser perplexity. C'est pratique pour avoir un point de départ sur un sujet ou interroger rapidement un article.
Modifié le 25/03/2025 à 16h57
#!/usr/bin/env bash
""""exec python3 -B -x "$0" "$@" ;# Switch to a safe language"""
Option -x inutile
Option -B pour ne pas "polluer" les fichiers de l'utilisateur qui pense exécuter un script shell
Le 26/03/2025 à 07h46
Le 27/03/2025 à 08h45
Le 27/03/2025 à 09h28
Modifié le 27/03/2025 à 15h56
Les outils d'IA dispo dans ma boîte (ChatGPT, Claude et Gemini) semblent prometteurs à la base.
J'ai essayé de les utiliser pour des résumés de réunions en ligne, de rapports à rallonge, de transcriptions de vidéos.
Je me suis vite aperçu qu'il vaut mieux ne pas trop faire confiance aux résultats, quel que soit l'outil.
Soit il manque des bouts pas si innocents que ça dans les compte rendus, soit il y des "ajouts" ou des "raccourcis" qui ne correspondent à rien dans le contenu source.
Du coup, s'il est préférable de se taper le contenu intégral de la source pour valider la fiabilité du compte rendu, le gain de temps est limité voire inexistant.
Du coup, l'IA, j'ai vraiment du mal à m'y mettre niveau pro.
Le 28/03/2025 à 06h33