Stack Overflow se cherche un nouveau look pour une nouvelle vie
Magnifaïk

Longtemps considéré comme le site de questions réponses de référence dans le monde des développeurs, Stack Overflow consulte actuellement sa communauté pour redéfinir son positionnement et élaborer sa future image de marque.
Le 20 mai à 08h15
5 min
Réseaux sociaux
Sociaux
Avec 15 000 nouvelles questions en avril 2025, l'activité de Stack Overflow est équivalente à celle qu'enregistrait le site en janvier 2009, moins d'un an après sa création. Elle est surtout près de quatorze fois inférieure à celle du mois de mars 2017, record historique de la plateforme avec près de 208 000 fils de discussion ouverts. De quoi motiver l'ouverture d'une phase d'introspection, puis de consultation, pour Stack Exchange, la maison-mère du célèbre site dédié aux développeurs, propriété du fonds d'investissement Prosus depuis 2021 et un rachat à 1,8 milliard de dollars.
Redéfinir la marque Stack Overflow
« Lorsque Stack Overflow (et plus tard, Stack Exchange) a démarré, sa mission était claire et précise. Mais le monde a changé. Rapidement. L'intelligence artificielle transforme notre façon de construire, d'apprendre et de résoudre les problèmes. Le développement logiciel est radicalement différent de ce qu'il était il y a quelques années, et le rythme du changement ne fait que s'accélérer », constate Prashanth Chandrasekar, CEO de Stack Overflow. Dans un billet daté du 8 mai dernier, il annonce l'ouverture d'un chantier visant à redéfinir l'identité de marque de son vaisseau amiral.
Un graphique rappelle à quel point le forum originel, Stack Overflow, s'est transformé en un véritable écheveau de sites, de sous-sites et de marques, sous la houlette de la nouvelle entité légale, Stack Exchange. Pour l'équipe dirigeante, la marque de départ aurait ainsi été étirée jusqu'à atteindre son point de rupture, comme un élastique bandé trop fort.

« En clair, notre identité de marque n'a pas suivi le rythme. Elle ne répond plus aux besoins des cas d'usage ni aux publics visés. Résultat : confusion, incohérences et inefficacité quotidiennes, tant à l'intérieur qu'à l'extérieur de l'entreprise. C'est ce que nous appelons la « dette de marque », un peu comme la dette technique d'une base de code », précisent Philippe Beaudette et Eric Martin, responsables respectivement de la communauté et du marketing, dans un billet connexe.
« La démarche irait plus loin qu'un simple coup de peinture. Il s'agit d'un réalignement avec notre mission : accompagner les bâtisseurs du futur dans un monde d'IA, avec clarté, rapidité et humanité. Il s'agit de nous présenter d'une manière qui reflète qui nous sommes aujourd'hui et où nous allons demain », promet Prashanth Chandrasekar, sans rappeler précisément ce qu'il estime être la mission, ou la raison d'être, de Stack Overflow.
Une omission rapidement soulignée par un commentateur se présentant comme un ancien employé. « Que cherche à devenir Stack aujourd'hui ? Un site de questions-réponses ? La principale source de données gérées par des experts pour un LLM ? Son propre LLM et son propre système de réponse ? Un outil de connaissance pour les entreprises ? Autre chose ? », interroge-t-il.
Des pistes d'évolution
Le sujet a cependant déjà été abordé par Prashanth Chandrasekar. En février dernier, il avait ainsi exposé, lors d'une séance de questions réponses en direct, sa vision optimiste de l'avenir de Stack Overflow, censée devenir le point de jonction entre communauté, connaissance et développement personnel.

De façon plus concrète, l'entreprise a initié début mars un fil de discussion dans lequel elle soumet l'une de ses pistes de réflexion quant à la plateforme. Elle y décrit la possibilité de déployer des outils d'échanges et d'interactions différents selon la nature et la complexité des questions posées, avec une file lente, dédiée aux questions réponses, une file intermédiaire pour la discussion et le débat d'idées, et une file rapide, centrée sur les échanges instantanés.
Stack Overflow face à l'IA générative
Même si corrélation n'est pas causalité, beaucoup considèrent que l'avènement de l'IA générative a placé Stack Overflow face à une forme de croisée des chemins. Le volume de création de nouveaux sujets décroit en effet de façon significative à partir de fin 2022 et de l'arrivée sur le marché des ChatGPT et consorts. L'étude des chiffres communiqués par l'entreprise montre toutefois une décrue antérieure, amorcée peu de temps après le pic d'activité engendré par le Covid-19.

Les volte-face de Stack Overflow quant à l'IA n'ont sans doute rien fait pour corriger cette perception. On se souvient en effet que l'entreprise a commencé par interdire les contenus émanant de grands modèles de langage, avant de prendre la vague à son tour, de développer des outils dédiés et surtout de valoriser l'accès à son immense bibliothèque de contenus, pour entraîner les modèles d'OpenAI ou de Google.
D'après les derniers résultats financiers de Prosus, publiés (PDF) en décembre dernier et portant sur les six mois échus au 30 septembre 2024, Stack Overflow aurait enregistré 57 millions de dollars de chiffre d'affaires sur le semestre, en hausse de 21 % sur un an, principalement grâce au succès des API permettant de se connecter à la plateforme et à ses contenus, note l'actionnaire.
Stack Overflow se cherche un nouveau look pour une nouvelle vie
-
Redéfinir la marque Stack Overflow
-
Des pistes d'évolution
-
Stack Overflow face à l'IA générative
Commentaires (68)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousModifié le 20/05/2025 à 08h49
Je l'utilise encore, même si j'ai toujours trouvé que ce n'était pas top, notamment car bien souvent les bonnes réponses ne sont pas les mieux notées, ou que certaines sont datées et qu'il y a mieux à faire maintenant, bref il faut séparer le bon grain de l'ivraie.
Mais au moins il y a matière à réflexion dans les contenus qui suggèrent des pistes de recherche pour résoudre un problème. C'est l'intérêt de l'intelligence collective et c'est pourquoi l'IA générative ne m'intéresse pas.
Modifié le 20/05/2025 à 09h03
au moins l'IA fait ce que tu lui demandes, et te suggère de meilleures pratiques si besoin
Le 20/05/2025 à 09h41
Le 20/05/2025 à 09h58
Ce qui est une bonne chose à mon humble avis : ça rend l'outil pas si magique que ça sans lui enlever son utilité, et les meilleurs créeront donc plus de valeur avec, et en tireront plus, et se démarqueront...
Finalement, c'est un peu comme la différence entre copier bêtement wikipedia sans prise de recul et sans analyse, ou s'en servir de source pour étayer un travail original et nourrir une réflexion authentique.
Le 20/05/2025 à 10h10
Mes différentes tentatives avec une IA pour générer du code m'ont fait perdre du temps et je n'ai rien appris.
Le 20/05/2025 à 10h24
Également, ma référence aux meilleurs ne faisait pas référence aux meilleurs développeurs de façon universelle, mais aux meilleurs utilisateurs de cet outil qu'est l'IA. C'est un outil parmi d'autres, ce n'est pas lui qui rendra les mauvais bons je ne prétends pas le contraire.
D'ailleurs, je ne suis pas développeur même si j'ai parfois besoin de coder un peu dans mon job et à titre privé, et j'utilise assez peu les LLMs pour coder ou pour d'autres tâches, mais je me méfie des positions de principe et des avis péremptoires qui sont souvent un problème de lorgnette trop petite.
Modifié le 20/05/2025 à 10h46
Le 20/05/2025 à 10h20
Le 21/05/2025 à 10h01
Le 20/05/2025 à 10h49
non, si la demande es mal formulée, l'IA répondra ce qu'elle peut ET demandera de reformuler/apporter des précisions ET t'accompagne si tu veux améliorer ce que tu veux faire ou pas.
oui, comme pour tout il ne fat pas prendre pour argent comptant tout ce qu'elle te sort et il faut faire une repasse et vérifier les réponses.
mais pas plus que sur SO où tu ne vas pas bêtement jouer un script qui a été posté par un humain.
Le 20/05/2025 à 11h02
Le 20/05/2025 à 14h56
Par contre concernant Stackoverflow je trouve a contrario que c'est enrichissant. Du fait de devoir chercher et lire les commentaires des autres, cela m'a permis parfois de trouver une solution plus élégante a mon problème.
Et en vérité je préfère galérer et comprendre pourquoi ça marche a la fin qu'avoir un truc tout cuit dans le bec.
Bon je suis peut-être un vieux con finalement
Le 20/05/2025 à 15h14
Je suis en fait d'accord avec toi concernant SO, il faut séparer le bon grain de l'ivraie, comme je disais plus haut, mais ça reste une source intéressante qui éveille à la réflexion pour résoudre un problème.
Et galérer et comprendre, bref se creuser la tête, pour avoir à la fin une belle chose aboutie, c'est le plaisir du truc.
Le 22/05/2025 à 09h54
Le 22/05/2025 à 11h19
Les IA actuelles sont des codeurs de niveau junior qui se font passer pour des cadors en t'expliquant pourquoi il faut faire comme ça, la démarche utilisée, etc.
Donc encore une fois, perso je ne perds plus de temps avec ça !
Le 22/05/2025 à 12h18
Pour info, j'utilise Amazon Q et l'extension vscode qui va avec ; il est capable de lire le code que tu as déjà écrit pour le modifier. C'est ma boîte qui m'a dit de l'utiliser, donc "est-ce qu'Amazon espionne ton code?" est une question que je ne dois pas me poser, des gens très au-dessus de moi dans la hiérarchie ont approuvé.
Le 22/05/2025 à 12h50
Par contre ta dernière remarque me fait froid le dos ! Ta hiérarchie a probablement gobé tout de go les mirages vendus par les chantres de l'IA !
Le 22/05/2025 à 15h49
avec SO on ne demandait pas combien de personne vérifiait les bout de code envoyé par des randoms.
pourquoi le faire avec l'IA ?
Modifié le 22/05/2025 à 16h29
Car comme je le disais plus haut j'ai vu trop de développeurs copier bêtement du code de SO sans se poser de questions. Outre qu'ils n'apprenaient rien sans essayer de comprendre le code en question, ils foutaient la merde dans les projets ! Bon ceci dit, ils ne gardaient pas longtemps leur boulot !
Le 22/05/2025 à 13h32
Le 20/05/2025 à 18h58
Le 20/05/2025 à 19h01
Le 20/05/2025 à 09h10
Google Search était déjà devenu LE moyen de rechercher du contenu sur ces sites.
(au point que certains sites proposaient directement Google Search comme moteur)
Les IA vont bientôt être LE moyen d'exploiter le contenu provenant de ces sites.
C'est triste, mais l'avenir des sites de "open knowledge" c'est soit de devenir fournisseurs de services (=proposer leur propre IA ?), soit de devenir curateur de données pour les IA.
Le 20/05/2025 à 09h19
C'est d'autant plus vrai sur des questions que je ne maîtrise pas, tout simplement parce que je n'ai pas confiance en leur exactitude.
La différence avec des humains est qu'on obtient plusieurs réponses. Et par définition, on se rapproche plus de la "vérité" lorsqu'il y a plusieurs "sources".
J'ai bien testé certaines questions pour vérifier et tout semblait ok.
Mais précisément, je connaissais la réponse donc dans ces cas, l'IA ne pouvait pas m'aider de facto.
Modifié le 20/05/2025 à 09h37
Le 20/05/2025 à 09h39
Celui là en particulier est en passe d'être résolu avec les AI multi-agents.
Modifié le 20/05/2025 à 12h14
De ce fait, une réponse donnée par une personne peut être corrigée/remise en cause par une autre.
Quand on questionne une IA, on perd cette diversité.
On peut toujours reformuler sa demande pour tenter d'avoir une autre réponse.
Mais les réponses resteront similaires.
La problématique ici est comment l'IA peut savoir que sa réponse est fausse ?
Encore une fois, ça reste un outil impressionnant qui peut avoir un taux d'exactitude plus que satisfaisant.
Mais je ne me fierai pas à 100% surtout sur les sujets que je ne maîtrise pas.
On peut faire un parallèle avec Internet : il ne faut pas faire confiance à ce qu'on peut lire sur Internet.
Le 20/05/2025 à 15h13
Le 20/05/2025 à 09h24
Le 20/05/2025 à 09h51
La source "Q/A" va disparaitre en l'état. Mais elle pourrait être remplacé par une liste de problèmes que l'IA ne sait pas (ou mal) résoudre => C'est le service d'IA qui va poser les questions à la communauté ;).
Ca pourrait d'ailleurs être un business model de Stack Overflow: "réponse contre token"
Coté "service IA" : collecte des problèmes ouverts
1. Les utilisateurs se servent l'IA
2. L'IA na pas de réponse ou les utilisateurs jugent que la qualité de la réponse est mauvaise
3. L'IA soumet la question/problème à SO
Coté "SO": challenge et récompense
1. La question de l'IA est posée à la communauté
2. Les humains répondent
3. La meilleure réponse (évaluation humain ? ou IA ?) est récompensée en "token" de l'IA.
Le 20/05/2025 à 10h26
Le 20/05/2025 à 11h00
C'est un service donc il faut un feedback sur la qualité du service, et un process pour l'améliorer.
C'est encore un business qui se cherche.
Et l'écosystème B2B n'existe pratiquement pas...
Le 20/05/2025 à 12h12
Le 20/05/2025 à 15h27
Et très honnêtement, le code généré par une IA (mais pas que), on voit bien que c'est du n'importe quoi. Si l'exemple n'existe pas au préalable, et récupéré sur une plateforme ou une autre ; ça n'ira pas bien loin.
Mais le truc, c'est que d'utiliser un moteur de recherche permet de retrouver ledit exemple...
J'en conviens qu'il y a un problème de formation sur le secteur du développement, mais il est un fait. Ce ne seront pas les IAs qui vont aider. En tout cas pas pour un résultat un minimum élaboré.
Il y a actuellement cette approche dans la plupart des cervelles qui est de dire : "j'ai appris l'orthographe, je suis un poète". Bin non. Va falloir bucher un peu.
Et on a le profil qui suit le premier : "J'écris avec plein de "photes" mais je vais demander à l'IA d'écrire le pohème".
Et à la fin, il y en a plus un qui comprend quoi que ce soit. Autant l'IA qui déblatère n'importe quoi et le candidat qui ne sait plus écrire.
C'est un peu une spirale... Qui ne va pas vers le haut.
Le 20/05/2025 à 15h37
Le 20/05/2025 à 16h39
Le gain de temps pour appliquer certains pattern (coucou design pattern repository) la génération des TU etc...
Perso l'ia me permet de passer très vite sur les points ou mon xp n'a pas de plus value pour me concentrer sur les points plus sensibles. Elle reste pertinente, surtout via ses sources en cas de problème précis.
Le 21/05/2025 à 07h31
Le 21/05/2025 à 11h24
Que cela soit l'agriculture, le code ou l'ébénisterie. Un travail régulier et un tour complet du propriétaire régulier permet de la conserver. Au pire de voir ce qui change pour X ou Y chose / raison. Ça s'appelle un métier.
La notion de "valeur ajoutée" ou "plus-value" est totalement subjective. Si certains considèrent que des tâches sont rébarbatives ; c'est leur problème. Il n'en reste pas moins que ces tâches ont été inventées pour de bonnes raisons. Les tests en font partie. Pour info, on paye des types à concevoir, créer et faire toute la journée des tests unitaires.
Que l'on utilise une IA pour générer du code quand on maîtrise parfaitement son sujet n'est pas un problème en soi. Simplement, en l'état, on sait que l'IA fait des ratures. En masse parfois. Donc il faut reprendre systématiquement. Perte de temps.
En fait, on va même plus vite à le faire avec les outils qui existent quand on a les bons (payant ou pas) et qu'on sait s'en servir. Exemple pour la POO les "get/set" ou les tests unitaires (justement). On savait faire avant l'IA.
Le problème est que l'utilisation inconsidérée de l'IA :
* Apporte son lot de fainéants du bulbe (pour ne pas dire incompétents).
* Tend à provoquer une érosion des professions qu'elle touche (Ex : les acteurs de Hollywood) qui in fine dégrade le secteur entier et même d'autres secteurs par propagation. Tant au niveau de la qualité produite que des compétences ou de l'emploi.
PS : Non, l'agriculture ou le jardinage sont énormément plus compliqués que ce que pense le chasseur / cueilleur de boite de poisson pané surgelé dans les rayons d'un supermarché.
Le 21/05/2025 à 12h36
Et bien sûr qu'il faut relire le code de l'IA, comme il faut relire le code donné par un random sur SO (puisque c'est de lui dont il s'agit).
Et non, ca prends pas olus de temps ou alors vous n'avez pas utilisé d'IA récemment pour ce genre de tâches.
Modifié le 20/05/2025 à 09h42
L'avantage du moteur de recherche, c'est qu'il renvoie ensore sur le site, où on peut voir des réponses / commentaires indiquant de meilleures solutions. ÇA, l'IA ne le fait pas (encore).
Je précise que je n'utilise que Mistral pour des questions de code, je ne juge pas les autres. Mistral a le mérite de sourcer sa réponse, donc on peut toujours vérifier s'il y a une réponse plus pertinente. La différence est minime par rapport à un moteur, il ne reste que l'aspect langage naturel et la discussion pour préciser la question.
Le 20/05/2025 à 10h25
Le 20/05/2025 à 09h54
1) fermeture de stackoverflow
2) au bout de quelques années, les IA ne pouvant plus s'entrainer sur StackOverflow, vont proposer des solutions moins pertinentes (peut être pas pour les "anciens" langages déjà existants, mais ne proposera pas grand chose sur les nouvelles fonctionnalités, les nouvelles libs, les nouvelles syntaxes, etc.)
3) réouverture de stackoverflow
Le 20/05/2025 à 10h30
Les utilisateurs utilisent déjà massivement les chatbots. Les moteurs de recherches vont peu à peu être remplacé.
Google a un virage à bien négocier, mais à définitivement une carte à jouer, ils sont loin d'être mort.
Modifié le 20/05/2025 à 11h14
Le scénario catastrophe c'est que Microsoft détienne le monopole de l'information de dev grâce à la synergie "Github+Azure+vscode/IA".
Le 20/05/2025 à 12h39
Même les questions sont généralement plutôt bien faites. Et si ce n'est pas le cas, le posteur est invité à revoir sa copie.
Sur un gestionnaire de ticket, c'est loin d'être la même qualité, et là même typologie de questions, sans compter que la réponse est parfois ailleurs (cas du patch par exemple).
Je dis que ce n'est pas la même topologie, car, pour simplifier, sur Stackoverflow, c'est "comment on fait ?" ou "pourquoi ça marche pas ?".
Sur un gestionnaire de ticket, on peut retrouver ce genre de question, mais aussi des rapports de bogues, des évolutions, etc.
Ca par contre, c'est pas faux non plus :/
Le 20/05/2025 à 10h12
Reste qu'il y a toujours de nouvelles questions qui cherchent de nouvelles réponses.
On peut gagner des badges à enseigner à une IA?
Le 20/05/2025 à 10h33
Le 20/05/2025 à 13h52
Le 20/05/2025 à 15h29
En revanche je trouve leur démarche louable et suis curieux du résultat.
Le 20/05/2025 à 17h00
A force de mettre l'IA à toutes les sauces et de vouloir avancer sans se poser de questions, certains ont perdu de vue que l'IA et notamment les LLM ne créent RIEN.
Quand les sites comme SO disparaitront, la source disparaitra.
Si les administrateurs d'IA se penchaient un peu sur le monde extérieur et se posaient un peu pour réfléchir plutôt que de porter des œillères pour aller le plus vite possible, ils se rendraient compte qu'il existe 2 grands types d'interaction dans la nature entre 2 espèces différentes:
- la symbiose
- le parasitisme
Dans le 1er cas, le symbiote vit en harmonie avec son hote car ils ont besoin l'un de l'autre
Dans le 2nd cas, le parasite vit au dépend de son hote et s'il finit par le tuer, il meurt aussi.
Deviner dans quelle catégorie on peut mettre les LLM ?
Le 20/05/2025 à 21h39
La doc associée à la techno continuera d'exister, non ?
Le 21/05/2025 à 08h42
Modifié le 21/05/2025 à 10h14
Le 21/05/2025 à 10h23
Le 22/05/2025 à 09h25
Modifié le 22/05/2025 à 11h00
Un exemple avec JavaScript où il est parfois nécessaire de savoir si une fonction est native (fetch, push, parseInt) ou pas. Or la norme ECMAScript ne donne pas cette information car c'est un détail d'implémentation propre au moteur JavaScript utilisé (celui du navigateur, V8, etc.).
Il y a néanmoins une solution car il s'avère que les moteurs JavaScript ont à peu près fait tous pareil, à savoir que si tu appelles la méthode toString() d'une fonction qui est native tu vas, par exemple pour la fonction fetch, obtenir le code suivant (là où tu obtiendrais le code de la fonction pour une non native) :
function fetch() {
[native code]
}
C'est l'intelligence collective qui a permit de voir ça car encore une fois, ceci n'est pas décrit dans la documentation d'ECMAScript, mais néanmoins si tu poses la question suivante à une IA :
Tu obtiens une réponse (j'ai testé avec ChatGPT, Copilot et Mistral AI Pro) et cette réponse provient de cette page de SO.
En plus la réponse n'est pas correcte, il y a mieux à faire, mais ça c'est une autre histoire (je n'ai jamais pris le temps de publier une réponse bien meilleure).
Il est clair que les IA n'inventent rien (sauf quand elles hallucinent), elles ne font que ressortir en les reformulant des choses déjà écrites. Donc si les sources fiables se tarissent les IA vont avoir beaucoup de mal.
Modifié le 23/05/2025 à 11h29
Les sources vont persister et dans le cas présenté, s'il y a un besoin réel d'avoir une solution standardisée pour discriminer les fonctions implémentées nativement par le moteur, de celles définies en JS, ça va finir par être intégré et ça se documentera.
Ton exemple devrait être un red flag qui t'indique de pas tenter d'utiliser cette solution, c'est juste une mauvaise idée de se baser sur des trucs non documentées. Il est d'ailleurs assez facile de trouver un exemple où une fonction non-native est considérée comme native:
(function () { return 42; }).bind(this).toString()
Le 23/05/2025 à 12h17
On attend toujours une solution standardisée pour ceci depuis pas mal d'années et il y a un besoin réel.
Ton exemple génère une fonction anonyme qui par nature ne peut pas être une fonction native, mais effectivement avec la solution donnée, par exemple par ChatGPT, cela dit que c'est une fonction native car cette solution n'est pas bonne et que personne n'a donné une bien meilleure solution.
Le 23/05/2025 à 14h29
Modifié le 23/05/2025 à 14h56
Et je n'ai jamais dit que tout le contenu de SO est primordiale, j'ai dit : Pas forcément nécessaire mais très complémentaire (comme aussi les blogs techniques, des forums, Github, etc.).
Et pourquoi le chatbot nous donne t'il des choses qui ne faudrait pas nous dire ? Il n'est donc pas capable de faire le tri ? C'est bête ça, comment je peux lui faire confiance du coup ?
Ah mais je suis bête (ou ma vue baisse) je n'avais pas vu la petite ligne en bas dans ChatGPT :
Le 23/05/2025 à 14h58
Certaines personnes, comme moi, disent juste que ça changera rien, l'entrainement se fera sur les sources qui existeront à ce moment-là. Comme tu le mentionnes justement, on doit déjà prendre ce que disent les chatbots avec discernement, ce sera pas pire.
Le 21/05/2025 à 08h58
Le partage d'expérience, c'est tellement has been...
Le 21/05/2025 à 13h14
Croire que les LLM sont entraînés uniquement sur Stack Overflow est une erreur. Les corpus limités (wikipedia, etc), c'était valable à l'époque de GPT 1 et 2. Aujourd'hui, c'est entraîné sur à peu près tout ce que ça peut trouver et la qualification des données est elle-même en partie réalisée par l'IA.
Le partage d'expérience ne se fait pas que via Stack Overflow : il existe de nombreux bloggers qui le font (je le fais, accessoirement), les discussions sur les repositories de code souce, etc.
Perso, c'est pas l'éventuelle mort de Stack Overflow que je pleurerais (le Web n'est pas éternel, l'info peut disparaître du jour au lendemain avec les sites) mais le risque de voir tous les sites se bloquer derrière un authentication wall pour contrer le scrapping massif des entreprises de la tech (quant elles ne possèdent pas les sources de données, cf le point sur GitHub).
Il y a déjà un précédent dans ce domaine avec les médias sociaux qui ont fait mourir de nombreux forums tout en privatisant les discussions (impossible d'accéder au contenu sans être inscrit).
C'est plutôt vers ça que leurs conneries vont nous amener. Sans oublier l'évolution du cadre légal, la DAMUN en Europe commençant à être remise en discussion par le législateur par exemple.
Le 21/05/2025 à 23h56
Maintenant elles sont aussi entraînées sur les prompts, sur leurs propres output, sur ceux des autres modèles, sur des taux d'engagement et d'acceptation de suggestions, ... Tout ça à une échelle démentielle. C'est pas pour rien qu'ils sont tous à brûler du cash sur des free tier.
Sur la problématique à laquelle répond SO, les IA pourront inférer des questions/réponses en "regardant" les obstacles rencontrés et la solution employée, l'acceptation et le feedback de l'utilisateur.
Sans compter qu'elle continueront à être entraînées sur les docs obscures (ou non), les codes sources ouverts, les bug trackers, ... bref tous ces endroits qui servent de source à la majorité des contributeurs de la source SO.
Le 22/05/2025 à 09h14
Tu confonds 2 choses: la capacité à traiter un nombre d'informations importantes à la fois pour laquelle l'IA n'a pas d'équivalent avec l'homme et la capacité de faire ressortir une information pertinente pour laquelle l'humain n'a pas d'équivalent avec l'IA.
Si l'entrainement d'une IA se passe de tout aspect humain, il faudrait qu'elle soit en capacité de repérer une solution à un problème qui ne sera pas forcément celle la plus donnée. Chez l'humain c'est l'expérience sur le terrain couplée avec une part d'intuition: bref autant de choses qu'une IA ne possède pas.
Tu nous fais du solutionnisme technologique et tu attribues à l'IA des qualités qu'elle ne possède pas.
Le 05/06/2025 à 01h08
Ce n'est pas du solutionnisme ou de l'attribution de qualités, c'est déjà factuellement le cas. SO répond à un fonctionnement de QA profondément humain. Les IA actuelles en mode chat se placent d'ailleurs in fine sur le même créneau.
L'erreur c'est de croire croire que SO = source. SO était déjà en grosse perte de vitesse et ce n'en est que l'accélération, les "vraies" sources ne disparaîtront pas à cause des LLM.
Tu éclipses aussi ma mention des contenus là aussi potentiellement humains comme les docs, les forums, etc
Mais on se rassure comme on peut hein.
Le 20/05/2025 à 19h55
Le 25/05/2025 à 11h11
Demander à (lire une réponse de) Stack overflow c'est aussi "bête" que penser qu'il n'y aurait qu'un seul algo pour répondre à un problème informatique.
Stack Overflow pollue les développeurs depuis des années maintenant, Copilot & autre Claude GPT prennent le relais pour pisser du coup plus / ou moins adapté qui marchera peut-être mais sans doute pas, et qui ne sera de toute façon pas maintenable car écrit avec quarante nuance de dev, sans ni cohérence, ni logique ou même un commentaire.
On est a fond dans l'enshitification !
- Avant on avait des docs officielles MSDN, manpages, des cours, tutos et Walkthrough. La théorie était expliquée les types d'algo, pourquoi, et comment : les dev étaient autonome, et réfléchissaient à un prb élaborairent différentes stratégie pour arriver à coder l'algo efficace tout en restant lisible maintenable.
- SO est arrivée et à cannibaliser les résultats google :
Plus besoin d'apprendre l'algorithmie ! Plus besoin de réflechir ! tu poses la quesiton / chercher / tu copies / installes une libraire obscure / colles de SO directement dans ton IDE. Toute une génération de "développeurs autodidactes" est apparu sur le marché, des gurs décérébré ce contentant de copier / coller sans jamais rien comprendre. Les résultats utiles sont passés en page 2 de google, Microsoft a arreté MSDN, les blogs de cours / tutos / walkthrough ont coulé faute de monétisation en page 2+ de google search.
- La couche humaine n'ayant pas beaucoup de plu-value dans ce senario, SO part à la poubelle, les serial copieur-colleur mette à jour leur titre linked de "CEO/CTO fullstack autodidacte" en "prompt engineer / IA specialist".
Conclusion, le doc devient rare : MDN survie, les manpages restent maintenue, les bons cours / blog ont disparus depuis plusieurs années.
Il manque la génération de développeur qui va recoder le prochain internet / nouveau google quand tout le monde aura compris qu'on est aller trop loin avec l'IA, et que la connaissance a disparu noyée dans les hallucinations perpétuelles.