À Bordeaux, IA et productivité au cœur des discussions chez les développeurs
IA qu'à demander
Lors de la conférence BDX I/O à Bordeaux, nous sommes allés à la rencontre de développeurs pour les interroger sur leur appréciation de l’IA. Dans cette première partie, nous nous intéressons aux gains de productivité et à ce que l’utilisation de modules comme Copilot de GitHub peut impliquer dans leur quotidien.
Le 21 novembre à 09h48
8 min
IA et algorithmes
IA
Depuis plusieurs années, l’intelligence artificielle est omniprésente. Nous la questionnons souvent, car en dépit d’avantages plus ou moins évidents et d’une célébration presque continue de sa puissance, ses usages laissent de nombreuses questions en suspens. C’est d’autant plus vrai que la thématique du numérique responsable se fait plus prégnante, face à un entrainement des modèles d’IA générative engloutissant des quantités faramineuses d’énergie.
Aussi la BDX I/O, qui s’est tenue le 8 novembre à Bordeaux, était-elle une excellente occasion d’aller faire un état des lieux : à quel point l’IA est-elle aujourd’hui utilisée par les développeurs ? Au-delà de l’intérêt qu’ils y portent dans leur production quotidienne, son utilisation leur pose-t-elle question ?
« L’IA ? Bien sûr ! »
Dans l’amphithéâtre A du Palais des Congrès de Bordeaux, le ton est rapidement donné. Les conversations perçues çà et là sont pratiquement toutes axées sur l’intelligence artificielle. Beaucoup disent s’en servir. D’autres indiquent que ce n’est pas encore le cas pour diverses raisons, parfois par manque de temps, plus rarement pour des questions de maitrise : « Pas encore, je préfère écrire mon propre code ». Mais dans presque toutes les conversations, la question de la productivité est centrale. Plusieurs personnes ont ajouté que leur société réfléchissait à la question.
Il reste 79% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousÀ Bordeaux, IA et productivité au cœur des discussions chez les développeurs
-
« L’IA ? Bien sûr ! »
-
Accompagner le changement
-
Un risque d’uniformisation des pratiques ?
-
L’IA déjà très présente dans les habitudes
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/11/2024 à 11h46
Hâte de lire la prochaine partie, j'ai l'impression qu'il y a de beaux angles morts, en effet.
Le "Fear Of Missing Out" pousse tant le management et les collègues à se ruer là-dessus un peu trop aveuglément, à mon goût. Une fois que la "hype" sera passée, et que les coûts réels seront appliqués, qu'en restera-t-il?
Le 21/11/2024 à 14h05
Le 21/11/2024 à 15h03
Le 22/11/2024 à 16h46
Et pour te trouver une source, je viens de tomber sur ça : https://blog.jetbrains.com/ai/2024/11/jetbrains-ai-assistant-integrates-google-gemini-and-local-llms/
(modèle large hébergé en local, je ne sais pas ce que ça vaut)
Et ce dont je parlais : https://blog.jetbrains.com/blog/2024/04/04/full-line-code-completion-in-jetbrains-ides-all-you-need-to-know/
Le 21/11/2024 à 16h16
Si personne ne partage ses connaissances concernant la résolution de NOUVEAUX problèmes, ceux-ci ne trouveront aucune solution dans les IA.
Et c'est bien la, l'un des principaux problèmes derrière l'IA: elle ne créée rien, elle ne fait que simplifier la démarche de recherche de solutions PARTAGEES par des personnes réelles.
Le 21/11/2024 à 16h35
Pour le premier, c'est l'essence même de l'informatique : le traitement automatique de l'information. L'informatisation a toujours été faite en ce sens et cette techno encore jeune (comme souligné par l'intervenante) est en plein développement.
Le 21/11/2024 à 19h29
Question pour ceux qui utilise l'IA générative pour les aider dans leurs développements : Avec des données d'entrainement "vieilles", avez-vous déjà obtenu des suggestions obsolètes ou ne mettant pas à profit les nouvelles fonctionnalités de votre langage préféré ?
Modifié le 21/11/2024 à 21h04
Même si GitHub enrichi régulièrement le modèle de Copilot, le P (et donc par extension le T) de GPT reste sa grande faiblesse à ce niveau.
Par contre, en mode RAG (analyse de code), il restait pertinent à priori.
Edit : précision importante, l'étude avait été faite à l'époque sur Copilot normal (Chat était seulement annoncé). Celui-ci était basé sur Codex, un LLM basé GPT 3.5 fine-tuned sur du code. Copilot Chat était passé à GPT 4 peu de temps après sa sortie et je suppose qu'il suit les évolutions du LLM d'OpenAI depuis.
Le 22/11/2024 à 09h21
Le 22/11/2024 à 15h21
Le 22/11/2024 à 20h13
Une compilation réussie ne préjuge en rien que le résultat attendu du programme soit celui qui sera produit.
Cela ne préjuge pas non plus que le code sera maintenable et ne coûtera pas plus cher sur la durée faute de facilité à le maintenir.
Je ne comprends toujours pas comment on peut croire qu'un outil qui s'appuie sur des statistiques pour produire du code peut produire du code correct.
Le 26/11/2024 à 17h53
Là où j'ai gagné du temps personnellement, ce n'est pas tant sur la génération de code mais plus sur la partie RAG.
La combinaison indexation sémantique/formattage de réponse est surprenamment efficace quand il s'agit de piocher dans une doc éparpillée/lacunaire pour répondre à des questions concrètes. Des trucs comme "quelles requêtes HTTP sous jacentes sont générées quand on exécute la commande bidule de l'utilitaire truc".
C'est devenu de plus en plus difficile pour moi de trouver des infos pertinentes via google ou stack overflow ou les moteurs locaux basés sur des mots-clefs quand tous les termes sont généraux et quand mon use case est inhabituel, à moins d'avoir du bol et de tomber sur une formulation exacte.
Alors qu'un pipeline RAG bien fichu va sortir la réponse (ou une inférence raisonnable) et ses sources. Faut toujours vérifier, mais ça me prend généralement moins de temps que devoir éplucher doc et code de zero.