Connexion
Abonnez-vous

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l'aide de l'intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière... pour mieux revenir ultérieurement ?

Le 04 juin à 08h45

Point d'orgue de l'année chez Microsoft en matière d'annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l'intelligence artificielle générative. Au gré de ses différentes présentations, l'éditeur a réaffirmé son ambition d'installer un « agent IA » partout où l'utilisation d'un modèle de langage serait susceptible d'avoir un intérêt.

Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l'assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d'un environnement spécifié par l'utilisateur.

Des tickets assistés par IA

Outre cet agent, à qui il suffit d'assigner un ticket pour l'activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l'entreprise.

Dans son billet d'annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d'écran illustrant le défaut, entraîne la création d'un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d'enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l'éditeur.

Las, l'accueil ne s'est pas révélé aussi favorable qu'escompté, comme en témoigne une discussion, initiée quelques jours après l'annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l'interface de gestion d'un dépôt.

Perte de temps et atteinte aux valeurs personnelles

Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d'une atteinte à ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».

Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l'idée d'une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l'IA est utilisée dans le dépôt », résume l'un des participants.

Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l'interface sans crier gare. « Il se peut qu'elle ait disparu, temporairement. Elle reviendra d'une façon ou d'une autre, c'est garanti », lui répond un autre participant.

GitHub n'a pour l'instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l'entreprise a annoncé le 29 mai le lancement, en early preview, d'une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.

Commentaires (11)

votre avatar
Merci pour l'article.
Petite correction : « en tant que mainteneuse » (et non « mainteneur »).
votre avatar
corrigé, merci !
votre avatar
C'est pas déconnant qu'ils la désactive si elle ne répond pas aux attentes. Il ne faut pas oublier que les services Web sont des bêta (voire des alpha) permanentes de nos jours. Vive l'agilité.

L'article fait écho avec la plainte du développeur de cURL qui a décidé de fermer immédiatement tous les rapports générés par IA. Si les utilisateurs étaient moins cons cela dit, ils qualifieraient et vérifiaient avant de le valider.

Intelligence artificielle vs stupidité naturelle, encore une fois.
votre avatar
Il y a une interview intéressante (en anglais) de Daniel Stenberg sur le sujet :

https://opensourcesecurity.io/2025/2025-05-curl_vs_ai_with_daniel_stenberg/
votre avatar
L'article fait écho avec la plainte du développeur de cURL qui a décidé de fermer immédiatement tous les rapports générés par IA.
C'est pire que cela:

If a report is deemed "AI slop," the reporter will be banned.
votre avatar
Parfait :)
votre avatar
Si j'ai bien compris le fond du problème, les mainteneurs ne sont pas fondamentalement contre l'idée d'avoir des tickets créés par IA, mais ils constatent que la majorité des tickets créés par IA sont de (trop) faible qualité pour être traités, et donc prennent trop de temps à "trier" du fait de leur grand nombre.
Et du coup, si les personnes déclarant un bug utilisaient l'IA pour générer des tickets de qualité, ça irait.
C'est bien ça ?
votre avatar
Et du coup, si les personnes déclarant un bug utilisaient l'IA pour générer ded tickets de qualité, ça irait.
De mon point de vue, oui. L'IA est un outil et au même titre que tous les autres outils, son résultat doit être évalué par un humain avant de l'appliquer.

Ce n'est pourtant pas comme si le monde du développement ne disposait pas déjà d'outils d'analyse de code qui nécessitaient une revue pour valider la remontée d'anomalie !
On évalue les rapports SonarQube, on évalue les rapports de sécu d'un Veracode/Checkmarx/GitHub Security, et j'en passe, pour savoir si le point remonté est pertinent ou non.

En fait, j'ai l'impression que dès qu'on parle d'IA, l'humain a un arrêt immédiat du cerveau et considère le résultat de l'outil comme une vérité irréfragable. D'un certain point de vue, j'y vois une forme de darwinisme pour déterminer la stupidité naturelle.
votre avatar
Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d'enfant
Que cette phrase puisse atteindre l'attention des personnes qui développent Bugzilla :troll:
votre avatar
J'ai ouvert un bug de Libreoffice/Mac sur Bugzilla il y a environ six mois, il vit desormais sa vie, passe de bug en bug, est ouvert, fermé, réouvert au gré du bon vouloir de tout le monde, avec affrontements fréquents entre ceux qui trouvent que le bug n'est pas si grave, ceux qui ont amélioré le problème sans le résoudre et ne veulent plus rien faire, ceux qui se demandent pourquoi après cinq ans il n'est toujours pas résolu, les utilisateurs qui confirment qu'il est toujours là, et bien sûr ceux qui disent que si on trouve que ça prend trop de temps on n'a qu'à le corriger soi-même... c'est une sorte de feuilleton en soi de suivre tout ça :)
votre avatar
Ha ha oui, la tournure que peuvent prendre certains tickets (et Quel que soit le bugtracker d'ailleurs) est parfois surprenante !

GitHub fait marche arrière sur la création de tickets assistée par IA

  • Des tickets assistés par IA

  • Perte de temps et atteinte aux valeurs personnelles

Fermer