GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l'aide de l'intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière... pour mieux revenir ultérieurement ?
Le 04 juin à 08h45
4 min
IA et algorithmes
IA
Point d'orgue de l'année chez Microsoft en matière d'annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l'intelligence artificielle générative. Au gré de ses différentes présentations, l'éditeur a réaffirmé son ambition d'installer un « agent IA » partout où l'utilisation d'un modèle de langage serait susceptible d'avoir un intérêt.
Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l'assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d'un environnement spécifié par l'utilisateur.
Des tickets assistés par IA
Outre cet agent, à qui il suffit d'assigner un ticket pour l'activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l'entreprise.
Dans son billet d'annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d'écran illustrant le défaut, entraîne la création d'un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d'enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l'éditeur.
Las, l'accueil ne s'est pas révélé aussi favorable qu'escompté, comme en témoigne une discussion, initiée quelques jours après l'annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l'interface de gestion d'un dépôt.
Perte de temps et atteinte aux valeurs personnelles
Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d'une atteinte à ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».
Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l'idée d'une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l'IA est utilisée dans le dépôt », résume l'un des participants.
Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l'interface sans crier gare. « Il se peut qu'elle ait disparu, temporairement. Elle reviendra d'une façon ou d'une autre, c'est garanti », lui répond un autre participant.
GitHub n'a pour l'instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l'entreprise a annoncé le 29 mai le lancement, en early preview, d'une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.
GitHub fait marche arrière sur la création de tickets assistée par IA
-
Des tickets assistés par IA
-
Perte de temps et atteinte aux valeurs personnelles
Commentaires (11)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 04/06/2025 à 09h10
Petite correction : « en tant que mainteneuse » (et non « mainteneur »).
Le 04/06/2025 à 09h26
Le 04/06/2025 à 10h48
L'article fait écho avec la plainte du développeur de cURL qui a décidé de fermer immédiatement tous les rapports générés par IA. Si les utilisateurs étaient moins cons cela dit, ils qualifieraient et vérifiaient avant de le valider.
Intelligence artificielle vs stupidité naturelle, encore une fois.
Modifié le 04/06/2025 à 14h30
https://opensourcesecurity.io/2025/2025-05-curl_vs_ai_with_daniel_stenberg/
Le 04/06/2025 à 17h12
If a report is deemed "AI slop," the reporter will be banned.
Le 04/06/2025 à 21h46
Modifié le 08/06/2025 à 19h14
Et du coup, si les personnes déclarant un bug utilisaient l'IA pour générer des tickets de qualité, ça irait.
C'est bien ça ?
Le 08/06/2025 à 11h53
Ce n'est pourtant pas comme si le monde du développement ne disposait pas déjà d'outils d'analyse de code qui nécessitaient une revue pour valider la remontée d'anomalie !
On évalue les rapports SonarQube, on évalue les rapports de sécu d'un Veracode/Checkmarx/GitHub Security, et j'en passe, pour savoir si le point remonté est pertinent ou non.
En fait, j'ai l'impression que dès qu'on parle d'IA, l'humain a un arrêt immédiat du cerveau et considère le résultat de l'outil comme une vérité irréfragable. D'un certain point de vue, j'y vois une forme de darwinisme pour déterminer la stupidité naturelle.
Modifié le 04/06/2025 à 21h32
Le 05/06/2025 à 02h41
Le 05/06/2025 à 09h35