Connexion
Abonnez-vous

À Bordeaux, IA et productivité au cœur des discussions chez les développeurs

IA qu'à demander

À Bordeaux, IA et productivité au cœur des discussions chez les développeurs

Lors de la conférence BDX I/O à Bordeaux, nous sommes allés à la rencontre de développeurs pour les interroger sur leur appréciation de l’IA. Dans cette première partie, nous nous intéressons aux gains de productivité et à ce que l’utilisation de modules comme Copilot de GitHub peut impliquer dans leur quotidien.

Le 21 novembre à 09h48

Depuis plusieurs années, l’intelligence artificielle est omniprésente. Nous la questionnons souvent, car en dépit d’avantages plus ou moins évidents et d’une célébration presque continue de sa puissance, ses usages laissent de nombreuses questions en suspens. C’est d’autant plus vrai que la thématique du numérique responsable se fait plus prégnante, face à un entrainement des modèles d’IA générative engloutissant des quantités faramineuses d’énergie.

Aussi la BDX I/O, qui s’est tenue le 8 novembre à Bordeaux, était-elle une excellente occasion d’aller faire un état des lieux : à quel point l’IA est-elle aujourd’hui utilisée par les développeurs ? Au-delà de l’intérêt qu’ils y portent dans leur production quotidienne, son utilisation leur pose-t-elle question ?

« L’IA ? Bien sûr ! »

Dans l’amphithéâtre A du Palais des Congrès de Bordeaux, le ton est rapidement donné. Les conversations perçues çà et là sont pratiquement toutes axées sur l’intelligence artificielle. Beaucoup disent s’en servir. D’autres indiquent que ce n’est pas encore le cas pour diverses raisons, parfois par manque de temps, plus rarement pour des questions de maitrise : « Pas encore, je préfère écrire mon propre code ». Mais dans presque toutes les conversations, la question de la productivité est centrale. Plusieurs personnes ont ajouté que leur société réfléchissait à la question.

Il reste 79% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (12)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Très intéressant, merci.

Hâte de lire la prochaine partie, j'ai l'impression qu'il y a de beaux angles morts, en effet.

Le "Fear Of Missing Out" pousse tant le management et les collègues à se ruer là-dessus un peu trop aveuglément, à mon goût. Une fois que la "hype" sera passée, et que les coûts réels seront appliqués, qu'en restera-t-il?
votre avatar
Il devrait au moins rester les modèles locaux "une ligne à la fois" comme chez JetBrains.
votre avatar
Tu peux développer, je ne connais pas ce type de modèle ?
votre avatar
Un "petit modèle" tournant en local qui ne sert qu'à te suggérer la fin de ta ligne. Je dirais qu'il me donne de bonnes réponses dans 50% des cas. Il invente des trucs (on voit qu'il n'utilise pas les données venant des AST, il me propose des réponses qui utilisent de champs qui n'existent pas sur des objets)

Et pour te trouver une source, je viens de tomber sur ça : https://blog.jetbrains.com/ai/2024/11/jetbrains-ai-assistant-integrates-google-gemini-and-local-llms/
(modèle large hébergé en local, je ne sais pas ce que ça vaut)

Et ce dont je parlais : https://blog.jetbrains.com/blog/2024/04/04/full-line-code-completion-in-jetbrains-ides-all-you-need-to-know/
votre avatar
La problématique "StackOverflow" est réelle: dans IA, l'intelligence est toute relative.
Si personne ne partage ses connaissances concernant la résolution de NOUVEAUX problèmes, ceux-ci ne trouveront aucune solution dans les IA.

Et c'est bien la, l'un des principaux problèmes derrière l'IA: elle ne créée rien, elle ne fait que simplifier la démarche de recherche de solutions PARTAGEES par des personnes réelles.
votre avatar
Elle ajoute – et c’est un avis que nous avons largement entendu au cours de la journée – que l’IA générative est surtout très forte pour accélérer les tâches rébarbatives.
Elle pointe également des cas spécifiques d’utilisation où l’IA montre tout son potentiel, dont la RAG (Retrieval Augmented Generation)
Oui, ce sont clairement les use-case où l'IA générative présente de la valeur ajoutée.

Pour le premier, c'est l'essence même de l'informatique : le traitement automatique de l'information. L'informatisation a toujours été faite en ce sens et cette techno encore jeune (comme souligné par l'intervenante) est en plein développement.
votre avatar
« Les recommandations que l’on voit aujourd’hui sont basées sur des données d’entrainement qui ont déjà plusieurs mois ou années »

Question pour ceux qui utilise l'IA générative pour les aider dans leurs développements : Avec des données d'entrainement "vieilles", avez-vous déjà obtenu des suggestions obsolètes ou ne mettant pas à profit les nouvelles fonctionnalités de votre langage préféré ?
votre avatar
J'ai eu des retours de ce genre lors d'une étude d'usage pour tester l'intégration de GitHub Copilot chez un client. Des devs utilisant des framework relativement récents ou ayant eu des changements importants avaient observé l'obsolescence des propositions du modèle.

Même si GitHub enrichi régulièrement le modèle de Copilot, le P (et donc par extension le T) de GPT reste sa grande faiblesse à ce niveau.

Par contre, en mode RAG (analyse de code), il restait pertinent à priori.

Edit : précision importante, l'étude avait été faite à l'époque sur Copilot normal (Chat était seulement annoncé). Celui-ci était basé sur Codex, un LLM basé GPT 3.5 fine-tuned sur du code. Copilot Chat était passé à GPT 4 peu de temps après sa sortie et je suppose qu'il suit les évolutions du LLM d'OpenAI depuis.
votre avatar
Ça me fait trop chier que maintenant IA = LLM alors que c'est la partie la plus nulle du domaine IA...
votre avatar
je suis d'accord que ce modèle d'IA reste un outil de "super suggestion" et est utilisé comme tel la plus part du temps. Cela va beaucoup plus vite qu'un moteur de recherche, la réponse est claire, et le gain de temps est donc conséquent.
votre avatar
Cette question de la productivité est à mettre en parallèle d’autres aspects, dont la qualité, avec une légère baisse par exemple des compilations réussies.
Si on limite la mesure de qualité d'un code aux "compilations réussies", on est mal barré !
Une compilation réussie ne préjuge en rien que le résultat attendu du programme soit celui qui sera produit.
Cela ne préjuge pas non plus que le code sera maintenable et ne coûtera pas plus cher sur la durée faute de facilité à le maintenir.

Je ne comprends toujours pas comment on peut croire qu'un outil qui s'appuie sur des statistiques pour produire du code peut produire du code correct.
votre avatar
Perso j'ai commencé à m'en servir un peu parce que mon entreprise pousse pas mal.
Là où j'ai gagné du temps personnellement, ce n'est pas tant sur la génération de code mais plus sur la partie RAG.
La combinaison indexation sémantique/formattage de réponse est surprenamment efficace quand il s'agit de piocher dans une doc éparpillée/lacunaire pour répondre à des questions concrètes. Des trucs comme "quelles requêtes HTTP sous jacentes sont générées quand on exécute la commande bidule de l'utilitaire truc".
C'est devenu de plus en plus difficile pour moi de trouver des infos pertinentes via google ou stack overflow ou les moteurs locaux basés sur des mots-clefs quand tous les termes sont généraux et quand mon use case est inhabituel, à moins d'avoir du bol et de tomber sur une formulation exacte.
Alors qu'un pipeline RAG bien fichu va sortir la réponse (ou une inférence raisonnable) et ses sources. Faut toujours vérifier, mais ça me prend généralement moins de temps que devoir éplucher doc et code de zero.

À Bordeaux, IA et productivité au cœur des discussions chez les développeurs

  • « L’IA ? Bien sûr ! »

  • Accompagner le changement

  • Un risque d’uniformisation des pratiques ?

  • L’IA déjà très présente dans les habitudes

Fermer