L’IA générative sur Next : retours d’expériences

C’est GenIAle

L’IA générative sur Next : retours d’expériences

Mais au fait, sur Next, qui utilise l’IA générative et comment ? Bonne question. On va tâcher d’y répondre (spoiler : c’est variable en fonction des personnes). Si l’IA a déjà écrit des lignes de code pour moi (et pour vous), elle n’a pas généré le moindre caractère de texte dans nos actualités.

Le 24 mars à 17h59

Commentaires (68)

votre avatar
Non respect du droit d’auteur, exploitation des humains (nigeria & co), horrible d’un point de vue environnemental, et pas fiable, donc non merci.
votre avatar
dans l’ensemble, elle se trompe assez peu et propose souvent de meilleurs résultats que Google
C'est possible de faire des résultats de recherche pire que ceux de Google ? Google cherche vraiment à tuer son moteur de recherche...
votre avatar
Retour intéressant et pas surprenant en fonction des personnes.

Je pense qu'un usage comme celui qu'en fait Alexandre peut être utile à tous.

Remarque : Flock a fait usage d'IA générative une fois pour tester ce que ça donnait et en annonçant qu'il l'avait fait.
votre avatar
Pas compris l'illustration d'Arcachon. Je ne dois pas avoir la référence...
votre avatar
Arcachon ...ancien papier, actu sur la municipalité qui a pris un abonnement IA pour ses administrés (de memoire)
votre avatar
Excact
Et j’ai volé comme une IA le dessin de Flock de cette chronique pour le reprendre sans vergogne dans mon actu
votre avatar
Cet édito est aussi une forme d’ouverture aux confrères : que pensez-vous de l’IA générative dans le cadre de votre travail ? Quels sont trucs et astuces ? De manière plus générale, l’IA générative a-t-elle changé votre manière de travailler ? Est-elle devenue une alliée ou au contraire une concurrente ?
Je l'utilise de force : "Utiliser l'IA générative" est un de mes objectifs annuels :pleure:
Et vu que chaque employé à son compteur de crédit personnel sur l'instance "maison" de chatgpt, je suppose qu'à la fin de l'année on me dira "tu ne l'as pas assez utilisé". Les rares fois où je l'ai fait, c'est pour des conseils d'optimisation de code, et au final Mistral m'a plus aidé que Chatgpt. Je vais donc être obligé d'utiliser un outil qui m'apporte moins de qualité qu'un autre, juste parce qu'un crâne d'oeuf en haut de la pyramide l'a décidé.

Mais je pense que je résiste pour rien, comme pour les rézosocio il y a quelques années. Je ne les adopte pas car ils heurent mes principes (énergivores, respect des droits, mainmise étaunienne ou chinoise,...), mais la jeune génération plonge dedans, ce qui rend le service de fait INdispensable. Tout comme moi il y a 20 ans j'ai adopté le téléphone mobile, alors que mes aînés disaient "jamais je n'en aurai un, pas d'utilité, le fixe me suffit".
votre avatar
Les rézosociaux...
Tous mes amis (vieux comme jeunes) ont insta, fbook, etc...
Pas moi, je n'ai même pas whatsapp et... jai toujours les mêmes amis.
Je ne comprends pas en quoi le fait qu'ils les utilisent rend ces réseaux indispensables, de fait ?
Pas d'animosité, juste de la curiosité, pour ma culture personnelle car je n'ai pas adopté les réseaux sociaux pour les mêmes raisons que vous.
votre avatar
Un usage qui m'a interpellé c'est de demander à une IA de critiquer un document (email, billet de blog...) et d'y trouver des failles / manquements.

Est-ce que vous l'avez déjà utilisé dans ce mode "relecture" ? (Sur des éditos par exemple)
votre avatar
Personnellement non, j’ai jamais demandé à une IA de « relire » un article, un édito ou autre. La seule chose qu’elle relie parfois c’est le message d’erreur lors d’une compilation/exécution d’un programme.

Si j’ai besoin d’un avis critique je m’adresse à mes collègues et/ou des spécialistes :chinois:

Edit : il y un usage tout de meme a bien y réfléchir dans certains cas : la correction orthographique
votre avatar
>La seule chose qu’elle reliet parfois c’est le message d’erreur lors d’une compilation/exécution d’un programme.
:cap:
Désolé, mais avec la suite, c'était trop tentant.
Edit : il y un usage tout de meme a bien y réfléchir dans certains cas : la correction orthographique
Oui, c'est peut-être un point. Je voulais le suggérer mais j'ai oublié. Si ça peut m'éviter quelques signalements juste sur l'haurteauggraffe !
votre avatar
100% ok avec Mathilde dans son approche de l'IA :chinois:
votre avatar
Je teste des GPT dans mon cadre professionel (phi, mixtral - pas les dernières versions).

je l'utilise avec succès pour :
- faire un premier niveau de recherche d'info à partir d'orthographe approximative et contexte (si j'ai l'orthographe wikipedia est généralement meilleur)
- générer du texte à partir de texte sommaire (ça fournit de la matière brute à retravailler, mais ça accélère mes rédactions surtout en anglais)
- générer du pipo pour mettre en valeur des résultats, écrire des conclusions, etc. (et là c'est limite trop ronflant)

succès mitigés pour la génération de codes simples (python, VBA), c'est généralement bon, mais j'ai rencontré des problèmes du genre :
* solution est trop brute et inadéquate pour les performances (dans le parcours de données)
* code halluciné (syntaxe d'expression régulière pour une fonction de recherche qui ne les comprend pas)

échecs:
- dès qu'on rentre un peu dans un domaine spécialisé que je connais, je vois plein d'erreurs (donc je n'utilise pas pour les autres domaines)
- notre IT a fait une version où on peut questionner sur des documents entrés en contexte, pour une analyse technique d'appel d'offres (AO) par exemple, et là c'est pas terrible, que ce soit sur des données techniques (domaine spécialisé), des données chiffrées (date de l'AO, prix cible) ou juste identifier le sujet de l'AO
votre avatar
Tu peux en dire un peu sur ton cadre pro ?
votre avatar
Je suis dans l'aérospatiale, sur de l'ingénierie système, principalement sur des électroniques et logiciels embarqués.
votre avatar
Je l'utilises aussi pour du VBA, aucun souci de mon côté, j'ai relevé 2 3 hallucinations sur des cas précis.

Pour le coup des expressions régulières je te conseilles de rajouter des exemples : je commence par un prompt de ce que je veux pour le regex, puis je lui montre 3 exemples valides et 3 exemples ko.

utilisation pro exclusive sur Copilot Web
votre avatar
Je ne l’utilise pas dans mon travail.
Pour le côté perso, je m’en sers comme d’un moteur de recherche amélioré. Pas envie de passer mon temps à chercher sur 10 sites avant de trouver la réponse que je souhaite.
votre avatar
Retour intéressant qui montre les tendances assez générales (les pours / contres / nuancés, perso je préfère les avis nuancés, toujours plus intéressants à lire que des positions tranchées).

J'ai déjà étalé mon usage personnel ici, mais si je devais en faire une synthèse :

Aujourd'hui, l'IA générative c'est mon assistant de travail dans plusieurs types de tâches.

C'est mon moteur de recherche avancé où le modèle génère les requêtes puis analyse les résultat. Pour cela, j'utilise une instance maison de SearxNG (qui est mon moteur par défaut) couplée à OpenWeb UI. J'utilise généralement une version abliterated de Llama 3.2, car il a, pour le moment, le meilleur ratio en perfs et qualité de traitement. Version abliterated pour limiter cette putain de censure que j'abhorre. Quand je suis moins pressé, j'exécute un Mistral Small 24b mais il est très long à travailler sur ma machine.
Un cas récent : j'ai voulu voir comment LaTeX fonctionnait pour apprendre à mettre en forme un récit avec. Il m'a été très difficile de trouver des ressources simples pour s'y mettre sur le Web et je commençais à me dire que je perdais mon temps. Les exemples marchaient pas toujours ou c'était mal expliqué. J'ai fait du pas à pas avec le chat de Mistral, en une heure c'était plié et j'ai globalement compris la structure du langage.

C'est mon assistant dans le domaine pro pour rechercher et comparer des choses rapidement. Trouver un truc sur le Web est devenu une véritable plaie avec des articles souvent verbeux remplis de vide, sans oublier évidemment les contenus auto générés inutiles comme vous en avez déjà parlé (une version Next Fucking Level des anciennes fermes SEO pleines de vide traduites à la truelle qui, si je devais désactiver mon bloqueur, ressembleraient à un sapin de noel enflammé). Voire à côté de la plaque par rapport à ma recherche.

C'est une aide pour scripter / coder rapidement en travaillant avec des langages que je connais. Je n'irai pas lui demander de me générer du code Java ou NodeJS ou autre, car j'y connais rien et je ne saurais pas challenger le résultat, ni le modifier, voire pas l'utiliser sans aide. Je vérifie systématiquement ses résultats, au même titre qu'il fallait (et faut) toujours vérifier un résultat Stackoverflow avant de le copier/coller bêtement.

C'est mon assistant d'écriture avec un modèle paramétré pour dans OpenWeb UI. Il me fournit des itérations pour des descriptions, des possibilités, des scènes, des mises en situation, propose plusieurs issues, je trie parmi tout ça. C'est grosso merdo un canard en plastique pour faire du brainstorm. Fut un moment où j'utilisais du LLM pour vérifier des tournures et des lourdeurs, mais les modèles généraux se révèlent inefficaces : ils écrivent avec beaucoup de verbes faibles, des répétitions, une rythmique hachurée qui se reconnaît rapidement, bref, ils sont nuls. Le modèle spécialisé d'Antidote dispo depuis la version 12 est déjà mieux pour détecter les lourdeurs ou tournures passives mollassonnes, mais c'est pas encore la panacée et ses propositions sont moisies 3 fois sur 4 (et hyper lissées, politiquement correct à la noix. J'ai dû le faire pleurer avec certains de mes personnages). Dans son cas, je garde parfois la structure technique de la phrase et me contente de l'améliorer.

J'ai testé le cas d'usage synthèse pour produire un synopsis (un vrai, pas un résumé) d'un de mes récits. Faute de puissance et limité par la taille du contexte, j'ai dû me limiter à une nouvelle très courte, mais ça fait le taff. C'est pas parfait non plus. J'ai tenté par curiosité de faire générer la quatrième de couverture de mon roman à partir du synopsis, mauvaise idée : il a tout mélangé. Les "critiques" sont généralement fades et plates. Ce qui est, de toute façon, le sentiment général face aux LLM. Ils sont tellement lissés qu'ils sont incapables d'être incisifs ou "critiques", justement.

J'utilise beaucoup la génération d'image avec Stable Diffusion en local, il fait fumer ma vénérable 1080 GTX qui est le minimum syndical (je n'ose pas utiliser ma vraie machine de jeu qui possède une RTX 2080 plus adaptée, j'ai juste peur que ça l'use trop vite et elle a coûté trop cher). C'est super pour prototyper une scène ou un rendu, mais ça se trahit très rapidement. Je n'ai pas assez de puissance pour travailler du img2img, donc la retouche est toujours un peu complexe. Les couvertures de mes nouvelles ont été générées par IA. Les premières datent un peu et sont plutôt basiques, la toute dernière que j'ai obtenue avait un chouette résultat que j'ai beaucoup aimé. Un peu de montage pour ajouter des détails et un passage par Inkscape pour mettre le titre et j'étais très satisfait.
Pour mon roman, je compte faire appel à un vrai illustrateur afin de passer le Next Fucking Level (again). Forcément, le coût n'est pas le même. Mais SD reste très pratique pour générer des idées de ce que j'attend, ce qui est mieux que de me confondre dans des explications qui ne seront pas comprises. Une chose que j'ai apprise en débutant dans l'écriture de fiction : les lecteurs n'imaginent presque jamais une scène comme l'auteur l'a imaginé. Donc ce moyen me paraît pertinent pour guider la personne avec qui je travaillerai pour l'illustration (en plus d'exemples de couv réelles qui j'aime niveau style). Bref, ça permet de construire son cahier des charges. Tout comme il est très bien pour faire un rendu de description.

Jusqu'ici, j'ai beaucoup évoqué le fait que je travaillais avec du modèle en local. C'est limité et ça demande de la patate pour les faire tourner dans des conditions idéales (en gros une bonne machine gaming pour SD, un gros CPU et beaucoup de RAM pour Ollama, GPU recommandé mais pas indispensable). Les modèles sont limités car ils ont très peu de paramètres comparés à ceux hébergés (Mistral Small a 24b versus Large avec ses 195b par exemple), ils sont donc moins précis ou efficaces. Mais de mon expérience, les modèles de 8 ou 12b sont déjà globalement bons. Les micro modèles à 1 ou 2b sont bien juste pour traiter des trucs très simples.

Quand j'ai besoin d'un modèle puissant hébergé, je travaille avec la plateforme de Mistral. Pour le moment, l'offre gratuite me convient, mais je songe à prendre l'abo comme à l'époque j'avais celui pour ChatGPT. La génération d'image de Pixtral est pas mal du tout, mais le quota gratuit quotidien est très limité (logique, ça coûte). Evidemment, il faut faire attention à ce qu'on lui donne.

En ce qui concerne l'aspect autour de l'IA générative, perso je n'ai pas spécialement d'avis.

J'entend les hurlements de la scène artistique, mais au final rien de nouveau. Le travail des auteurs et des artistes est pillé depuis très longtemps sur Internet ne serait-ce qu'avec le piratage de masse. L'IA est censée être entraînée sur des contenus librement accessibles et nous avons un cadre légal dans l'UE pour officiellement interdire le TDM. Dans la réalité, on constate bien que ce n'est pas le cas. J'ai hâte de voir les jugements aux USA concernant le fair use qui risquent de changer la donne pour les entreprises de la Tech (ou pas, on verra). Quant aux entraînements réalisés sur du contenu piraté, pour moi ça reste de la contrefaçon au même titre que les partages illégaux en Bittorrent, streaming ou newsgroup. Je suis même souvent amusé de voir que beaucoup se mettent soudainement à défendre les artistes et les auteurs après avoir vomi sur les ayants-droits pendant des années (cf les débats Hadopi etc. où ces groupes d'intérêts défendaient les leurs). Ce gene d'ironie m'éclate toujours. Peut-être que comme pour l'affaire Google News/médias sociaux (où là aussi la presse a été la cible de "c'est que des vieux gavés aux subventions qui savent pas s'adapter", encore un retournement de veste ironique de l'opinion j'ai l'impression), un droit voisin sur l'entraînement de modèles d'IA va apparaître.

Quant à l'aspect écologique, dans la mesure où j'utilise majoritairement en local, ça revient à une session de jeu vidéo, donc ça ne change pas grand chose en ce qui me concerne. Le plus vorace dans mon usage aura évidemment été l'entraînement des modèles (que je ne pratique pas, je les récupère prêt à l'emploi). Les gros comme Llama ou Mistral ont forcément eu un impact non négligeable à leur production, tout comme SDXL a dû aussi en avoir un. Cela dit, un modèle dérivé de SDXL n'est pas si violent en matière d'entraînement. De mémoire, les personnes derrière ceux que j'utilise pour la génération d'image affichaient des coûts de conso d'énergie aux alentours de 2 à 300$.
L'usage est plus faible en ce qui me concerne (là où les modèles hébergés sont voraces aussi, forcément).

Néanmoins, si je privilégie l'usage local, ce n'est pas pour des questions de conso énergétique, plutôt de vie privée. Sur ce point, même chose, rien de nouveau : les entreprises de la Tech violent massivement la vie privée des personnes (avec leur bénédiction), donc les cris de vierges effarouchées autour de l'IA me blasent.

L'argument sur le côté des travailleurs du clic m'indiffère : l'industrie délocalise dans des pays à bas coût depuis des décennies avec des conditions de travail merdiques. C'est le cas pour les vêtements pas chers (quand le plafond de l'usine ne leur tombe pas sur la gueule) mais aussi des appareils électroniques dont les conditions des employés ne sont pas glorieuses. Pourtant, j'ai rarement vu des gens s'émouvoir de ça. Et n'oublions pas la modération des médias sociaux qui a détruit de nombreuses vies. Ici aussi je ne vois que le standard industriel et rien de nouveau.

Si je devais résumer mon point de vue sur l'éthique de l'industrie de l'IA : c'est la même que l'industrie en général, donc rien de nouveau sous le soleil. Je ne dis pas qu'il ne faut rien faire. J'ai simplement l'impression qu'on découvre dans quel monde on vie depuis des années au travers de cette techno et de ses usages et travers. Ça me blase à peu près autant qu'à l'époque où tout le monde vénérait Google quand on voyait déjà qu'ils s'accaparaient le Web, en utilisant le bon vieux "mais non, don't be evil qu'ils disent".

Quant à l'usage, pour moi la règle d'or est de toujours challenger le résultat de l'IA et le comparer, voire faire réitérer le modèle. Ne pas le faire, c'est admettre qu'on est juste bon à bouffer du foin et croire pour sainte vérité le premier message posté sur Twitter. Et dans ce cas, ne venez pas chialer parce qu'on vous baise derrière.

Voilou, en résumé.
votre avatar
Cette conclusion a le mérite d'être efficace :censored:

Merci pour ce retour super circonstancié.
votre avatar
Demande à une GenIA de te faire un résumé en bullet point :dd:
votre avatar
Occupe toi de ton extension, tu as des PR en attente :D

(reuh l'autre, comment qu'il donne des ordres hé ! non mais Ô ça va pas la tête ?? :pastaper:)
votre avatar
Pour l’instant, je suis occupé à donner des noeuds à la tête d’une « autorité » du Net et à terminer un dossier en trop de parties sur « Comment marche vraiment… » ;o

Mais j’ai vu les PR, juste que Claude arrive pas à me pondre un programme satisfaisant pour répondre aux PR à ma place :D
votre avatar
Il y a peut être de gentils lecteurs ou de gentilles lectrices qui seraient intéressées pour t'aider sur le sujet ;)

Je dis ça, je ne dis rien ^^
votre avatar
Mais j’ai vu les PR, juste que Claude arrive pas à me pondre un programme satisfaisant pour répondre aux PR à ma place
Bah, un webhook, une GitHub Action, et il te fait un auto close "not a bug", "not feasible", "I don't care" et voilà, tu seras compliant pour les projets open source Diva :p
votre avatar
C'est clairement une techno en qui je vois un certain intérêt et un "game change" par rapport à des années de "c'est une révolution" pas si révolutionnaire que ça. Donc ouais, j'ai tendance à devenir verbeux sur le sujet :transpi:
Contrairement à d'autres comme le metavers ou la blockchain (pour prendre les plus médiatiques comme l'IA), l'impact sur la tech de l'IA générative me semble beaucoup plus concret avec des applications réelles et réellement utiles.

Cette sous discipline de l'IA a embarqué tout un tas de problématique à laquelle elle cherchait à répondre et l'a amélioré (la perception visuelle et audio notamment), sans oublier le bond en avant en matière d'interaction humain-machine. Les assistants vocaux comme Siri et compagnie ont été rapidement dépassés. Et je pense qu'en matière d'accessibilité numérique, on va faire un bond en avant.

Evidemment, y'a aussi les usages moins nobles comme le deepfake et compagnie qui posent de vrais problèmes (là aussi pas nouveaux, mais facilités comme à chaque bond technologique).

Ah, tiens, un cas d'usage que j'ai aussi testé dans le cadre de l'écriture, mais pas beaucoup (assez chronophage) : faire lire un de mes récits par un synthétiseur vocal (j'ai testé coqui tts, enfin son fork car il semble abandonné). Ça permet de se taper des barres avec l'accent belgo-canadien de certains modèles, mais écouter son texte est aussi un moyen de détecter les lourdeurs orales qui ne se détectent pas aussi facilement à l'écrit. J'ai pas trop joué avec encore, le temps de génération est parfois très long et faut itérer sur plusieurs modèles.
votre avatar
Voilou, en résumé.
J'adore cette phrase, alors que le commentaire est sans doute plus long que l'édito d'origine ^^

Plus sérieusement, je te rejoins sur beaucoup de chose.

En ce moment, je "challenge" une LLM (Claude, pour être précis), sur du dev. Je précise, le dev, c'est mon métier. Je le fais développer des petites choses et j'essaie de le pousser jusqu'au bout, pour voir jusqu'où on peut aller.

Ce que je note : il n'est franchement pas mauvais, mais loin d'être parfait. Il faut plus ou moins d'itérations, de consignes, etc. jusqu'à obtenir un bon résultat. J'essai sur des projets plus ou moins complexes, avec des techno différentes (un projet pur C#, un autre PHP/Html/SQL, un autre javascript).

C'est un très bon "pisseur de code" (et à une vitesse défiant toute imagination). Je mets plus de temps à relire son code pour le comprendre qu'il ne met à l'écrire ! Mais sans doute moins que si je l'avais écrit moi-même.

Sur mon projet C# de test (générateur d'AST), il commence aussi à montrer quelques limites. Mais il a clairement su poser les bases et faire gagner beaucoup de temps !

J'ai aussi testé l'écriture des tests. Là encore, il faut correctement le guider dans ce que l'on veut pour obtenir quelque chose de bien.

Mes premiers essais (qui ne sont pas encore terminés donc) me confirme en tout cas une chose pour les LLM et le développement logiciel : cela peut être une aide efficace dans des mains d'un dev senior, ça me parait être une dangerosité sans nom dans les mains d'un dev junior (problème de sécu, race condition, mainteabilité, etc.)
votre avatar
J'ai aussi testé l'écriture des tests. Là encore, il faut correctement le guider dans ce que l'on veut pour obtenir quelque chose de bien.
Les tests d'intégration ou unitaires, c'était typiquement le genre d'arguments que GitHub et Microsoft nous balançait au début de Copilot. C'est pas mal aussi pour faire de l'explication de code non documenté, ça faisait partie des points d'entrée.

En matière de dev, je me contente surtout de Python. Pour scripter des trucs rapidement, c'est vraiment pratique.

Là où je trouve l'outil efficace, c'est pour la recherche et le dev assisté. Entre 50 recherches infructueuses sur le web et un outil qui arrive à pondre ce que je veux en deux/trois itérations, mon choix est désormais vite fait.
votre avatar
Je l'utilise quotidiennement dans mes dev .net aussi. Clairement sur de la génération de cas de test, de TU, de data, c'est très fort et ca fait gagner bcp de temps.
Une fois qu'on a trouvé le bon prompt il est réutilisable a volonté pour gagner un temps fou.
Il est aussi assez bon pour du conseil d'optimisation, pour l'instant ca a souvent été pertinent.
En dehors de la génération c'est aussi bien plus efficace qu'un google pour trouver des docs / sources correspondant réellement à ma demande.
On est vraiment sur un "clippy" 2.0
votre avatar
Je m'appuie aussi sur Claude (3.5) pour mes "petits" dev bash/powershell/python, et il fait clairement gagner du temps sur 80% des demandes... il est bien plus efficace que chatgpt (4o) sur ce type de demandes.
Par contre j'ai vu aussi Claude me reformater un code à ma demande et m'en oublier la moitié :mad2:
votre avatar
Vu l'énorme quantité d'énergie nécéssaire au fonctionnement de ces IA génératives, je ne leur trouve pas d'utilité qui soit justifiable.

Côté boulot, elles représentent pour moi une perte de temps énorme à cause de ceux qui les utilisent, et viennent proposer des "solutions" qui n'en sont jamais, et à qui il faut expliquer pourquoi les solutions proposées ne peuvent pas fonctionner.
votre avatar
Côté boulot, elles représentent pour moi une perte de temps énorme à cause de ceux qui les utilisent, et viennent proposer des "solutions" qui n'en sont jamais, et à qui il faut expliquer pourquoi les solutions proposées ne peuvent pas fonctionner.
Ah, le grand classique du projet qui vient avec sa solution et pas son besoin. Tu résumes ici le quotidien d'un architecte, et c'est pas apparu non plus avec l'IA, hélas.

Les éditeurs ont compris depuis longtemps que certains secteurs sont pilotés par le métier et "attaquent" donc par ce biais. Résultat, on passe notre temps à filtrer toutes les débilités "clés en main" qui posent soit des risques pour le SI, soit vont coûter une fortune. Ah oui, c'est pas cher en licence, mais c'est pas l'éditeur qui paye les 150 VM nécessaires pour faire tourner son tas de merde.
votre avatar
Faut voir les échelles de grandeur quand même. Je bosse dans l'industrie de l'énergie et je pense qu'en trois cuves dalu on a fait des milliers de requêtes. Et nous aussi on jette des pièces...
L'entraînement ne me choque pas. La génération à outrance et sans intérêt d'image me semble plus débile. Mais des modèles petits ou moyens pour des usages utiles tels que décrits.

Manger du bœuf ou du fromage de vache est un énorme gâchis de ressources par rapport aux légumineuses. Pourtant on est encore beaucoup à en manger "parce que c'est bon".
votre avatar
Vous faites et vous jetez des milliers de pièces par jour ? Parce qu'ils sont là les ordres de grandeur.

Tant qu'à rester sur les ordres de grandeur, on a OpenAI qui a saturé ses 300000 GPU et en a recommandé des dizaines de milliers : comme les cuves en alu, les GPU ça ne pousse pas sur les arbres.
votre avatar
On produit 800 PSEM par an, de l'ordre de 2.4 t chacun. Principalement alu (~9 kgCO2/kg), acier et cuivre.
D'ailleurs, on utilise toujours du SF6, pire faz à effet de serre, avec 1 kg = 24300 kg de CO2. Et on en avait environ 100 kg par PSEM avant de trouver en remplaçant (aujourd'hui 75% de nos PSEM en Suisse sont produits avec un gaz 99% moins polluant). On a publié nos ACV.

Mais on est le squelette du réseau électrique, on ne fait pas des images de sanglier qui fait du VTT pour se moquer des chasseurs.

J'avoue que 300’000 GPU ça parle.
Mais encore une fois, je suis ingénieur dans un domaine de l'énergie qui voit des ACV régulièrement et ça ne me suffit pas. Je veux des vrais chiffres. De même pour les voitures (production vs usage). On le fait nous !

Ne pas me méprendre, je suis un écolo et je ne veux pas relativiser la pollution en disant que c'est pire ailleurs. Je souhaite qu'on énonce les ordres de grandeur pour prioriser nos efforts et mieux responsabiliser les usages (utiles).
Faire de l’IA pour rien c'est inutile par définition. Mais quand je lis que l'entraînement d'un modèle c'est autant de CO2 que 10 voitures pendant 1 an laissez moi rire (il faut que je retrouve ça). Notre usine française a fuit 1200 kg de SF6 l'année dernière, soit environ 30'000 tonnes de CO2 (oui, on y travaille mais cest compliqué).
Je pense qu'on devrait limiter le nombre de modèles et les entraînements inutiles en plus de limiter l'usage inutile tout en ayant une présélection du modèle (taille) selon le contexte et besoin. Mais le ratio entrainement vs usage de modèle non personnalisé montrerait sûrement que le coût environmental est à l'usage (vu le nombre d'utilisateurs).

Dans mon usage perso et pro, je trouve très peu d'intérêt à l'IA passé quelques recherches et traduction. Des collègues l'utilisent plus pour de la prédiction mais ce n'est pas du GenAI, donc RAS.
Sinon, ce n’est pas plus joli pour l'environnement ou les humains que l'industrie lourde. Donc autant dire que si ça ne sert pas à grand chose, autant s'en passer !
votre avatar
De même pour les voitures (production vs usage).
Il y a amplement à lire dans les synthèses du GIEC sur ce sujet là.
Mais quand je lis que l'entraînement d'un modèle c'est autant de CO2 que 10 voitures pendant 1 an laissez moi rire (il faut que je retrouve ça).
Ça doit être seulement l'alimentation électrique des noeuds utilisés pour l'entrainement. Un DC avec des centaines de milliers de GPU, c'est bien plus que l'impact de 10 bagnoles.
votre avatar
Pour les voitures je ne comprends juste pas que ça ne soit pas obligatoire de fournir un ACV. On le fait sur des produits moins standardisé et pas grand public.

J'avais cherché sans succès et fini par demander à ChatGPT pour d'avoir si je devais mieux garder ma petite voiture essence de 14 ans ou essayer d'en acheter une (d'occasion) plus récente qui consommerai un peu moins. Je n'avais jamais trop trouvé la réponse.
votre avatar
On le fait sur des produits moins standardisé et pas grand public.
Je connais peu de produits grand public pour lesquels c'est fait (ou publié en tout cas). Pour les voitures on a quand même un certain nombre d'estimations, voire des données de constructeurs pour certains modèles. À partir des masses et équipements, on peut se faire une idée (c'est pas au kilo près, mais c'est pas totalement déconnant, de toute façon, si ton résultat est à une tonne près sur le cycle de vie du véhicule, ce n'est peut être pas urgent de prendre une décision basée là dessus).
J'avais cherché sans succès et fini par demander à ChatGPT
Je crois moyennement à la pertinence de demander ce genre de chose à un agent conversationnel.
votre avatar
Yes. Et je trouve dommage que ça ne soit pas obligatoire, surtout avec les défis liés au transport du future.
Au lieu de critiquer les SUVs sur leur taille on pourrait simplement quantifier leur impact. Ca serait tellement plus simple. Ca doit encore être une histoire de lobby...
votre avatar
De lobby ou de flemme tant que ça ne sera pas dans une norme et une loi (et peut être aussi une peur que ce soit encore vu comme des trucs de bobos khmers verts par les bas du front de plus en plus nombreux)
votre avatar
On est assujetti via les réglementations européennes justement. Bref, merci pour l'échange constructif !
votre avatar
On est assujetti via les réglementations européennes justement.
Plus ou moins : déjà ce sont entre autres nos euro-députés qui votent pour ou contre ces choses là, et on applique avec plus ou moins de zèle (en accusant parfois l'UE de décider contre/sans nous alors qu'on a voté pour). Depuis 3 ans, l'UE est surtout assez fébrile sur un autre sujet assez existentiel aussi.
votre avatar
Si si, on peut atteindre 16 millions de ligne avec Calc: youtube.com YouTube

Jamais testé..

S'il faut plus, il faut recompiler l'application...
votre avatar
Inutile, pour le moment.

J'ai tout de même testé pour ma curiosité, notamment génération de texte/image et même une musique. C'était plutôt bon au final, mais rien qui motiverait à un usage régulier vu que ça ne répond à aucun impératif réel ni professionnel.

L'IA ne peut pas réaliser de la maintenance informatique même simple ni du montage de pièces :fume: Elle pourrait servir de moteur de recherche pour les besoins techniques mais la considération écologique fait que je préfère aller sur DuckDuckGo (Google devenant inefficace) et un bon vieux RTFM.

Je la montre à des usagers éventuels quand ils en font la demande, mais à part parfois la génération de texte ça ne semble pas vraiment passionner les foules. Et j'explique les limitations (hallucinations, résumés cachant des détails importants, etc.), ce qui ne doit pas aider.

Je fais très peu de code donc je ne l'envisage pas comparé à l'usage de librairies rodées, et comme j'ai peu d'expérience je crains même une maintenance délicate si je l'utilisais en mode copier/coller idiot. Pour reprendre fdorin dans ce thread, c'est sûrement un bon outil pour un dév sénior, mais je n'en suis pas un... j'ai néanmoins la sagesse de le réaliser avant même d'essaier :transpi:

Par contre je commence à douter de la sincérité des courriers et e-mails que je reçois car rien ne me dit que la personne a effectivement écrit le texte que je lis. Je n'ose imaginer un recruteur lisant des lettres de motivation, ça doit même être contre-productif en 2025... En tout cas ce qui est sûr c'est que ça a dû bien aider les arnaqueurs, au moins pour réduire les fautes d'orthographe et conjugaison vu qu'ils n'ont même plus à taper le texte :fume:

Idem, si je vois un texte se prétendant être un résumé genre sur Reddit, je préfère aller lire l'article dont il s'inspire car j'ai déjà eu des cas omettant des détails d'une importance si cruciale que ça réduisait à néant la gravité du sujet évoqué.

j'imagine qu'avec la vieillesse vient une forme de méfiance envers la technologie. Un peu ironique quand on est dedans depuis des décennies :phibee:
votre avatar
J'ai testé un peu en local (ollama), je vois les suggestions, en général pas le temps de les accepter j'ai déjà tapé la réponse.
Une fois il m'a sorti un gros bloc, ça a piqué ma curiosité. Au final plus de temps à relire et corriger que ça ne m'en aurait pris d'écrire.
Notez que je n'y connais pas grand chose.

J'ai lu un résumé d'une réunion qui m'a marqué... "x et y commencent par parler football pour détendre l'atmosphère" (ou un truc du genre . Interprétation correcte), mais utilité dans le résumé ?

Sinon j'étais dans des réunions où un des directeurs pondait le résumé. À chaque fois que je lisais le résumé, je me demandais si on avait assisté à la même réunion. Tout ça pour dire que les IA font bien, ou mal... mais les humains aussi.
votre avatar
En fait il y a une croyance qui s'est développée (probablement à cause de la comm' des acteurs de la Tech avec tout leur bullshit habituel) comme quoi l'IA est un outil magique autonome.

Spoiler alert : s'pas le cas et faut la guider pour obtenir le meilleur résultat. C'est le but du system prompt justement :D
votre avatar
Oui enfin là j'avais pas vu elle m'a "halluciné" plein de champs qui n'existent pas dans ma base de code... Je ne suis pas sûr du prompt à utiliser...
votre avatar
Tu lui as donné le code en entrée pour qu'il fasse du RAG dessus ? Sans les données de base, le modèle va forcément inventer.

Tu as utilisé quel modèle ?
votre avatar
Me souviens plus du modèle, et je ne lui ai rien donné du tout (à part mon code, si on veut). Pas de prompt non plus, le code est apparu tout seul et avait l'air pas mal. Les données nécessaires était dans le fichier. Ça ressemblait à un bout de code bien deviné.

En prompt j'ai fait une fois ou deux, purement pour tester, c'était potable.

Je n'ai pas vraiment d'usage pour le moment, je fais des petites modifications à droite à gauche. Si tu as des conseils question modèle je suis preneur.
votre avatar
J'en ai peu fait directement avec Ollama (j'utilise plus openWeb Ui qui se base dessus), mais pour faire du RAG avec lui il faut nécessairement passer par les API et faire du dev il me semble.

Pour ma part je travaille principalement le coding avec le Chat de Mistral, notamment à cause des temps de réponse sur ma machine en local qui font que je n'aurai pas la patience.

Côté modèles, je dirais de voir avec Codestral (celui de Mistral) et Codellama qui me semblent bien évalués. Deepseek R1 m'a pondu des trucs pas mal (par rapport à mes attentes) le peu de fois que j'ai essayé, mais il est lent à travailler sur ma machine parce que c'est un modèle de raisonnement.

Il me semble d'ailleurs qu'il existe des extensions VSCode pour faire un chat bot de pair programming IA comme GitHub Copilot sur lesquelles on peut paramétrer une API custom pour dialoguer.
votre avatar
Merci de présenter vos usages de façon transparente.

Le Monde rapporte aujourd'hui une expérimentation intéressante sur le sujet en Italie : En Italie, le journal « Il Foglio » lance une édition entièrement réalisée par une IA
votre avatar
J'ai utilisé Copilot avec Sonnet 3.7 Thinking dans VSCode.
Je lui ai fait coder des scripts simples en python mais qui n'est pas mon langage premier. Ça m'a fait gagner du temps.
Puis je lui fait coder une appli plus complexe en React en tapant dans une api rest d'un service de build populaire. Là pour le coup, je n'avais une connaissance. Au moins 90% du code a généré par l'IA, j'ai du faire quelques retouches quand l'IA ne s'en sortait vraiment pas. Mais globalement, j'ai fait la grande majorité du code à coup de prompt : je veux ci, je veux ça, dispose de telle manière, refactor le code ; et surtout, beaucoup de : corrige ton code, parce qu'elle introduisait des erreurs régulièrement, voire cassait le code. Avec des commits réguliers, parfois des reverts.

Au final, pour lui faire coder des choses dans des langages populaires comme Python, JavaScript, Typescript, ça marche très bien parce qu'il y a une base d'apprentissage énorme. Par contre, lui faire coder des choses en C++, c'est plus coton ; l'IA avait énormément d'hallucinations de fonctions qui n'existent pas.
votre avatar
Merci d'avoir partagé vos utilisations.

Pour ma part, je préfère cibler les utilisations.

Pour la correction d'orthographe, j'utilise LanguageTool que j'ai plugué sur mes mails, sur le navigateur et à Obsidian.
C'est très pratique. Je conseille !

Pour la recherche, je suis abonné à Kagi.
J'utilise sa partie de recherche rapide IA quand je n'arrive pas à être précis dans mes recherches. Comme il filtre les sites, j'arrive à de bonnes choses.

Pour le boulot, en tant que développeur, on nous fait utiliser copilot.
J'ai eu pas mal de soucis pour l'utiliser au début. Je n'étais absolument pas satisfait du code généré. Je le trouve très pourri pour le JS quand on veut bien coder. C'est d'une qualité de "scrip kiddies". Ce n'est clairement pas du JavaScript maintenable et optimisé.
Par contre, je me suis mis à travailler différemment pour avoir de l'aide.
Je fais une structure générale avec des premiers fichiers. Quand j'ai besoin d'un nouveau fichier, j'ouvre un déjá bien fait qui va servir de modèle. Je lui fait générer le squelette en écrivant le cartouche.
Puis il m'aide ligne par ligne. J'ai pris pour habitude de commencer par la jsdoc pour déclarer les objets que je veux pour qu'il sache la matière et ça aide bien à avancer. Mais j'avance ligne par ligne. Il dévie déjà au bout de 5 lignes tout seul.
Là où il m'aide le plus, c'est pour les tests unitaires. Comme j'ai fait la découpe avant pour avoir beaucoup de fonctions simples et "pures". Il edt très pertinent. Il me propose même les tests faisables et, en règle générale, je ne fais que relire.
votre avatar
En voyant les autres expériences citées ici, j'ai l'impression de revivre l'arrivée du Cloud avec les outils d'IA générative.

À l'époque de l'expansion du Cloud, les vendeurs nous promettaient monts et merveilles : plus besoin de sysadmin, tu gères tout toi-même, CAPEX et plus OPEX, t'inquiète-on-s'occupe-de-tout, etc. Sur le papier, oui, suffit de créer son compte, mettre sa CB et youplaboom.

Dans la réalité, c'est créer une passoire dans son SI, foutre tout en public parce que c'est moins cher, et se retrouver avec des ressources pas maintenues / gérées parce que personne n'a la compétence pour et à la fin 300k€ / mois de facture. Parce que le Cloud pas maîtrisé, ça coût cher et que le finops ça s'improvise pas. Shadow IT qui devient vital pour la boîte, ah c'est con Jean Michel est parti plus personne sait comment ça marche.

Les effets sont différents, mais j'y vois le même travers avec l'IA générative : t'inquiète-l'IA-s'occupe-de-tout tu peux virer tes devs. Résultat, code passoire pas maintenu, actions techniques/métier réalisées par des personnes non averties, au loin, des sirènes.

Moi aussi je peux faire le contrôle de gestion d'une entreprise du CAC 40 avec l'aide de ChatGPT si j'écoutais des bullshiteurs comme Altman. Dans la réalité, je préfère m'abstenir et utiliser ces outils pour des tâches dont je sais que je saurais les challenger. Et surtout, apprendre à utiliser ces outils et comprendre comment ils fonctionnent pour être conscient de leurs biais et limitations.
votre avatar
Beaucoup de "nouveautés" on malheureusement cette tendance. "Ca va tout révolutionné ! Plus besoin de faire comme avant !".

Le cloud en est un bon exemple. En voici d'autres :
- le NoSQL : beaucoup en sont revenus, les problèmes liés à l'interrogation de données non structurées qui étaient à la base... structurées !
- la blockchain : certains voulaient en mettre partout, sans comprendre les enjeux, juste parce que c'est à la mode. On se retrouvait même avec des blockchains privées avec UN seul acteur en jeu ! On appelle ça "une BD" !!
- le no-code : plus besoin de dev, youpie (sauf que c'est faux, et des outils no-code non maitrisés, c'est se heurter à des gros problèmes (limite en terme d'enregistrement, impossibilité d'exporter ses données, etc.) et de nombreuses start-up se sont prises les pieds dans le tapis à cause de ça
- les micro-services : il faut arrêter le monolithique, tout découper, faire des services et monter un cluster Kubernetes de 3 machines pour faire tourner des services qu'un raspberry pi parviendrait à faire tourner sans problème !

Maintenant ,c'est l'IA, où tout algorithme (ou presque) devient de l'IA, quand bien même ce ne sont que de simples mathématiques (ex: régression linéaire).
votre avatar
Toutafé, beaucoup de promesses et d'engouement parce que c'est nouveau, résultat on fait n'importe quoi avec. C'est dommage, car à chaque fois ça nuit à la techno qui en elle-même est bonne.

Le coup du NoSQL, j'en ai vu aussi passer des projets à coup de "on a besoin d'une base MongoDB" et derrière ils commençaient à se demander comment gérer les relations... Et j'ai vu l'usage de certains logiciels du marché, c'est juste dégueulasse du genre "j'ai stocké un gros json en string dans un champ parce que je dois tout gérer dedans".
votre avatar
J'adore ta liste. Mon préféré étant la blockchain détenue par un acteur (me semble qu'une assurance avait fait le coup).
votre avatar
Pour l'instant en mode decouverte avec exclusivement des tests en local sur mon pc. Je joue avec la génération d'images (stability matrix , fooocus sdxl) c'est rigolo de voir comment sont interpretés les prompts par moments.
Je teste également divers llm via gtp4all pour generer des prompts pour sdxl. Mais je trouve que les llm sont beaucoup trop en mode bisounours. Par contre les traductions sont assez bluffantes.
Prochaines experimentations/recherches prevues: génération de code. Recherche locales et sur internet (perplexity?). Génération d'images -> convertion en modele 3d -> impression
votre avatar
Le jour où un LLM pondra des sous-titres pour Next aussi bons que depuis 20 ans, ce sera la fin du règne de l'humain.

Bon sinon, c'est tout pourri l'IA générative : c'est à l'encontre de pas mal de mes principes mais je l'utilise tous les jours. Un peu comme si je mangeais un sandwich foie-gras/saucisson tous les midis. J'ai honte. Il est indispensable que je prenne le temps d'avoir ma propre instance, en plus j'ai une 1080Ti. Mais quand je vois ce que me sort 4.5 avec deepsearch... pfff, j'ai tellement honte :craint:
votre avatar
Moi, mon expérience de l'IA générative est à ce jour limitée et prudente (pour rester dans un propos technophile). J'ai testé l'IA dans le navigateur MSEdge et dans le moteur de recherche Qwant. J'ai fait le même constat : des réponses qui m'ont semblé aléatoires, une incitation à la paresse de ma réflexion sceptique pendant ma démarche (recherche d'une information - rédaction d'un texte, récit, lettre). J'ai une sorte de phobie de devenir dépendant de l'IA générative avec une peur de fournir des données personnelles (en gros, j'ai l'impression désagréable d'être manipulable). J'ai vite desinstallé MSEdge, j'ai vite supprimé mon compte Qwant après l'essai non-concluant pour moi.

Plus récemment, les réflexions qui ont eu lieu suite aux discours "technobros" de MZuckerberg, EMusk, JBezos … les helloquitteX EscapeX m'ont convaincu de réduire drastiquement ma présence et ma participation aux plateformes de réseaux sociaux publicitaires. J'ai un compte Facebook dont j'ai supprimé la grande majorité de mes publications, commentaires et emoji-reactions. Sachant que MetaAI débarque bientôt sur Facebook en Europe, je suis sur les starting-blocks pour supprimer mon profil si l'intégration ressemble à ce que fait Microsoft et Qwant.

MetaAI ou pas MetaAI, Facebook est déjà rempli de contenus "genAI" (photos, Reels, profils aux comportements étranges). Mastodon également, même si le contrôle de ce que je vois sur Mastodon est facilement contrôlable par moi et par le serveur qui héberge mon profil Mastodon.

L'IA fait maintenant partie de mon quotidien que je le veuille ou non. Une recherche Google et la page de résultats me donne une réponse générée par IA en 1ère page. J'utilise moins Google Search mais ça reste parfois incontournable.

Plus largement et pour conclure, je m'intéresse à la politique locale et je suis régulièrement les conseils municipaux de ma commune. Je vois entre autres sur la question de l'éclairage public que ma commune a investi depuis un an dans un nouveau système d'éclairage public intelligent qui permet de contrôler de manière très fine et précise le réseau d'éclairage jusqu'à des débats en séances du conseil municipal sur l'utilité d'éteindre telle zone ou de réduire la puissance de l'éclairage dans une autre zone ou de garder l'éclairage des ronds points sur demande de la Police nationale, etc. Ça me semble parfois inverser l'utilité de la machine qui devient « maître » (comportement décideur) pendant que l'humain devient « esclave » (comportement adapté). Ça parle « sobriété » « économie » « efficacité » « automatisation » alors qu'on complexifie les systèmes d'information. Autrement-dit, l'IA et l'organisation qui contrôle cette machine, contrôle l'espace public.
votre avatar
Jean-Marc ne voit pas d'utilité pour l'IA générative. Moi, je trouve que, au contraire, elle est très utile pour Jean-Marc. Quand un article Next est signé "Jean-Marc Manach", j'ai recours à l'IA générative, au travers de la fonction "Résumé" d'Inoreader, pour réussir à prendre connaissance du contenu en un temps raisonnable.

C'est mon seul cas d'usage de cette fonction. Jean-Marc, à lui seul, la justifie. :copain::humour::pastaper:
votre avatar
Je valide!
J'adore les article de Jean-Marc, mais il faut que je me bloque un bout de mon après-midi pour les lire ! :dors::smack:
votre avatar
J'utilise aujourd'hui tous les jours les "IA generatives" pour mon travail, plus rarement dans ma vie personnelle. J'en utilise principalement 3 : chatGPT, perplexity et Github Copilot.

J'utilise Github Copilot avec VSCode principalement comme une super autocomplétion. Je code principalement en python et en bash. Je pense que la principale différence entre les 2 langages, c'est ma maîtrise personnelle de ceux-ci. J'ai beaucoup plus de difficulté avec Bash, qui est bordélique, mélange de 2 langages et de commandes aux conventions de nommage aléatoires. Je dois donc plus souvent me reposer sur les suggestions de Copilot pour Bash que pour Python, ne pouvant pas forcément compléter moi-même le code pour le diriger dans la bonne direction. Dernièrement, j'utilise pas mal l'outil d'édition de code de Copilot, qui est pas mal lorsque l'on a déjà un code de base et que l'on veut le modifier.
Mais de manière

A côté, chatGPT lui me sert pas mal pour trouver des solutions, pour générer un début de snippet. Lorsque j'ai un problème, je commence généralement par faire une recherche google pour trouver une solution, mais si je ne trouve rien qui ne me convient, je vais du coup demander à chatGPT. Généralement les solutions proposées sont assez bonnes, ou en tout cas me donne une bonne base.

Enfin, pour des questions plus académiques, qui demande une recherche dans des articles scientifiques, je vais utiliser perplexity. C'est pratique pour avoir un point de départ sur un sujet ou interroger rapidement un article.
votre avatar
Le bash, c'est facile. Il suffit de mettre ces 2 lignes en début de fichier:
#!/usr/bin/env bash
""""exec python3 -B -x "$0" "$@" ;# Switch to a safe language"""

Option -x inutile
Option -B pour ne pas "polluer" les fichiers de l'utilisateur qui pense exécuter un script shell
votre avatar
Je restreins l'usage IA à la recherche sur Internet en n'utilisant que des moteurs IA qui donnent clairement les sources utilisées dans leurs réponses afin de vérifier (perplexity en ce moment) et des IA génératives pour reformuler des textes ou mettre en forme une liste d'idées. Quelques essais de synthèse de documents. Je m'interdis d'utiliser l'IA pour créer des images ou vidéos en raison du coût écologique et de la violation des droits d'auteurs des illustrateurs.
votre avatar
Sur le cas d'usage d'Alexandre consistant à utiliser l'IA pour avoir un résumé d'une conf qu'il n'aurait pas le temps d'écouter de toute façon le risque n'est pas que de manquer qq chose d'important mais aussi d'en extraire une information fausse il me semble. L'ia peut halluciner un contresens et comme ce cas ne prévoit pas de vérification, c'est risqué.
votre avatar
Où as-tu lu qu'il ne vérifiait pas les points remontés par l'IA ? C'est faire injure à son professionnalisme de journaliste : un journaliste, ça vérifie avant de publier.
votre avatar
Je plussoie.

Les outils d'IA dispo dans ma boîte (ChatGPT, Claude et Gemini) semblent prometteurs à la base.

J'ai essayé de les utiliser pour des résumés de réunions en ligne, de rapports à rallonge, de transcriptions de vidéos.
Je me suis vite aperçu qu'il vaut mieux ne pas trop faire confiance aux résultats, quel que soit l'outil.
Soit il manque des bouts pas si innocents que ça dans les compte rendus, soit il y des "ajouts" ou des "raccourcis" qui ne correspondent à rien dans le contenu source.

Du coup, s'il est préférable de se taper le contenu intégral de la source pour valider la fiabilité du compte rendu, le gain de temps est limité voire inexistant.

Du coup, l'IA, j'ai vraiment du mal à m'y mettre niveau pro.
votre avatar
Comme souligné par @fred42 il y a obligatoirement une vérification, d’ailleurs plus qu’une vérification rechercher dans la conf l’endroit précis pour écouter le passage. Quand au risque de manquer quelque chose, sans GenIA il est de 100 % puisqu’on n’écouterais meme pas la conf (on parle ici uniquement des confs qu’on n’a pas le temps d’écouter, si elle promet d’être intéressante, évidemment qu’on prend le temps de l’écouter)

L’IA générative sur Next : retours d’expériences

  • L’IA générative est nouvelle, pas l’intelligence artificielle

  • Il n’y a que les imbéciles qui ne changent pas d’avis

  • Oui à l’IA générative, mais sous étroite surveillance

  • L’IA générative en complément des moteurs de recherche

  • Les cas d’usages qui ne marchent pas (pour ma part)

  • Alexandre s’en sert « globalement peu »

  • Vincent se demande à quoi l’IA générative pourrait lui servir

  • Mathilde : « cout environnemental excessif » et manque de respect

  • Martin et l’IA générative : « éthiquement, ça me freine »

  • Jean-Marc « n’a pas trouvé d'usage à ce stade » et se méfie

  • Flock est déjà dans un monde sans I(A) ?

  • Et vous ?

Fermer