votre avatar Premium

kampuchea

est avec nous depuis le 10 mars 2016 ❤️

32 commentaires

Je parlais bien du cas où l'on change de session également. Après un certain temps passé, GPT semblant être le roi là dessus, les erreurs de logique deviennent de plus en plus nombreuses même sur les nouvelles sessions, ce qui me laisse penser à un bridage.
Ça s'ajoute bien sûr, à la dégradation observée à mesure que le temps passe depuis la sortie d'un nouveau modèle.

ChatGPT… on teste même plus. Depuis cet été, ils sont hors course pour nous.

Une dégradation entre sessions ne fait pas parti de nos constats. Ça veut pas dire que ça n'existe pas, évidement :-)

Hormis le soupçon de drift volontaire des éditeurs, mais c'est sur du moyen terme, on constate une stabilité de notre côté

Je me pose exactement les même questions. J'ai aussi l'impression que plus on utilise leurs outils, plus leurs performances se dégradent, même sur une nouvelle session, jusqu'à passé un certain temps, comme si tout était bridé par économie de ressources, au point parfois que l'efficacité baisse sérieusement.
Surtout concernant ChatGPT...

sur une seule session c'est assez normal. Ton contexte augmente et l'efficacité s'éttouffe. S'il est trop volumineux, il sera compressé et, même si ça s'améliore, c'est toujours un peu hasardeux (on appelle ça «faire un donut» car t'as un trou dans le contexte).

Le soucis est plus la dérive (drift) dans le temps des modèles qui semble vraiment liée à des réductions de performance du LLM : lenteurs, résultats moins pertinents etc.

J'attends avec hâte une étude qui viendrait confirmer, ou infirmer, que les hébergeurs de LLM (souvent éditeurs eux-même) jouent avec ces performances. Ça semble logique, mais « ça semble logique » est un argument totalement pété ; vivement les études qui aborderont ce sujet :-)
On a testé le bousin au boulot. C'est assez impressionnant mais je commence tout de même à me demander si les éditeurs de LLM auraient pas une tendance à gonfler leurs modèles au démarrage pour le laisser se dégrader par la suite.

Y'avait tout une affaire autour de l'effondrement des performances de Gemini 2.5 en septembre/octobre, avant le lancement de Gemini 3.

oui, autant au temps pour moi
:cap:

alors non mais non. Y'a pas de grand accord à ce sujet. fr.wikipedia.org Wikipedia

Et l'usage vs la norme toussa. Moi j'suis team usage

Hum, je ne connaissais pas Antigravity. Bah, de mon côté, je suis surtout intéressé par ce qui se fait en libre, et je compte me pencher sur Zed (https://github.com/zed-industries/zed) prochainement. D'autres suggestions ?

gemini-cli est open source mais fortement lié à gemini. Shai d'OVH est libre et permet de mieux choisir son modèle. Y'a des plugins Visual Studio code pour les différents modèles, ils sont souvent open source eux aussi


(je fais un distinguo libre/open source)

gemini-cli à déjà été enterré ? ha la vache ils vont vite chez Gogole :D

Perso, Claude Code intégré dans PHPstorm est franchement bien. J'avais testé Windsurf et Cursor mais ils sont clairement loin des produits Jetbrain (payants certes).

Pour Devstral je pense tester avec OpenCode, faut que je trouve comment l'intégrer avec PHPstorm.

c'est pas enterré enterré, c'est l'outil CLI. Mais ils ont sorti un IDE appelé Antigravity qui est franchement pas mal. Au niveau de Cursor en qualité

Je pense que @Neliger et toi allez dans le même sens ;)
Il n'a jamais dit que ça devait être individualisé.

oui, autant pour moi
Sam Altman indique un code rouge, que y'a urgence. Il pouvait améliorer ses modèles ou générer des Mickeys. Bon, améliorer un modèle c'est compliqué et Anthropic et Google font mieux. On va générer des mickeys.

Par delà la provoc', on assiste peut-être aussi à un recentrage d'OpenAI vers des solutions grand public 🤷‍♀️
J'adorerai voir Disney gagner contre Google et que ça crée une jurisprudence (à l'américaine) et voir comment les autres acteurs pillés par OpenAI réagissent. Je pense qu'OpenAI n'a vraiment rien à gagner dans cette affaire et même beaucoup à perdre.

Une telle jurisprudence serait largement utilisée contre OpenAI
On pourrait aussi parler de Shai d'OVH ou feu gemini-cli.
Mais les IDE de vibe coding moderne, Antigravity et Cursor, présent un double mode (agent et éditeur) qui est franchement intéressant.

Sortir un IDE CLI aujourd'hui a une odeur de naphtaline, hélas :-/
Pour mémoire, Mistral est devenu la référence pour tout projet où la souveraineté est essentielle : bancaire, industrie, armement etc. Quelques puissent être ses défauts et qualités, cet attribut "souverain" en fait un acteur incontournable du domaine de l'IA en France

Mais je trouve quand même cette collecte de données complètement disproportionnée par rapport à une simple demande de visa.
Voila quelques questions qui sont posées actuellement dans le formulaire ESTA:

- Souffrez-vous d’une maladie transmissible ?
- de troubles physiques ou mentaux ?
- Faites-vous usage de stupéfiants ?
- êtes-vous toxicomane ?
- Avez-vous déjà été arrêté ou condamné pour un délit ou un crime réprouvé par la morale publique ?
- ou pour une infraction relative à des substances contrôlées ?

Visiblement ces questions ne posent de problèmes à personne ici. En tout cas, j'ai pas vu d'article de Next ou de commentaires pour s'en offenser. Mais lister ses identifiants de RS, ohlalala... c'est "complètement disproportionné".

Y'a eu des actualités à ce sujet ? Ce n'est pas parce qu'on en a pas parlé sur Next ou que personne s'en est plaint que c'était acceptable pour autant.
bah … là c'est pas de l'intelligence (notion à définir). Mais y'a ce terme marketing d'IA. Quitte à évoquer les années 90, IA a la saveur de "web2.0" à l'époque, tu ne trouves pas ? 
Non. La conclusion est que lutter contre l'IA, c'est lutter contre la voiture.

C'est noble, mais c'est pas gagné d'avance. Et reprocher à quelqu'un d'utiliser une voiture dans un contexte où tout est fait pour t'y inciter, c'est pas ouf.
Tu peux ne pas avoir de voiture, c'est très bien, mais c'est difficile de reprocher aux autres d'en avoir une.

Problèmes collectifs, solutions collectives.

Non. Privatiser les bénéfices, mutualiser les coûts ET les pertes.

Double effet kiss cool.

en langage policé on dit « too big too fail »
Je les trouve pas «long» les articles de Jean-Marc pour ma part. Change rien Jean-Marc ! :)
Il y a un an, la course à l'échalotte de l'IA tournait autour d'OpenAI et des versions de ChatGPT.

xAI avait, comme d'hab, lâché une version minable de leur modèle grok, inutilisable et dont tout le monde se fout¹, la veille de l'annonce de Gemini3.

OpenAI sortait une correction de ChatGPT-5, modèle qui ne cesse de décevoir. D’ailleurs à l’utiliser, on a du mal à voir le rapport entre les benchmarks, la communication de Sam Altman et une réalité très décevante.

Anthropic a donc aussi réagit aussi à la sortie de Gemini3 en sortant enfin la version Opus de son modèle. Elle devait être en besace depuis le début cette version.

Y’a pas un an, Google n’existait pas dans la rat-race de l’IA. Aujourd’hui ils sont les meneurs de cette course de la reine rouge.

Passionnant. Comme des courses hippiques² 🍿

¹ oui, je sais, j'en parle. Mais c'est pour le plaisir de bitcher
² vous pouvez m'appeler Omar Sharif
Un excellent moyen de contourner les chiffrements bout en bout des conversations. Backdoors CIA, placement de produits etc. tip top

Tant qu'OpenAI brûlera du cash sans avoir suffisamment de revenus, ils ne seront pas introduits en bourse. Il y a le capital risque pour ces phases.

Il est fort probable qu'il y ait une bulle de l'IA mais quand elle éclatera, il y aura quand même des gagnants et OpenAI sera probablement de ceux-là. Il n'y a qu'à se rappeler d'Amazon et ses pertes pendant très longtemps pour voir que derrière, il peut y avoir un champion mondial.
Voir cet article qui approfondit le sujet et qui rappelle la chute de la valeur de l'action Amazon en 2000 et sa valeur actuelle.

Donc, oui, il y aura probablement un éclatement d'une bulle, mais ce n'est pas le cas OpenAI qui permet de le prévoir comme tu l'as fait dans ton premier commentaire.

l'article est court, commence par un argument d'autorité (ça démarre mal) et se termine sur une affirmation étayée sur du rien. C'est dommage, il est vraiment mauvais cet article, alors que je suis fondamentalement d'accord avec toi. Si bulle il y a, les survivants tireront le gros lot

J'ai un partenaire qui à tout chez Google et qui m'a dis a peu près le même chose de Gemini au sein de l’écosystème worspace.

pourquoi ne suis-je pas étonné ? En comparaison avec ce qu'on parvient à faire tout seul en expérimentant, je suis assez surpris de la faible qualité des features IA chez m365 ou Google Workspace
Je vais le poser parce qu'il faut bien que quelqu'un le dise : Copilot M365 est une bouse infâme. Incapable de mettre en forme sur Excel, tu peux sélectionner des noms de logiciels et lui demander de mettre les liens vers les téléchargements, il n'y arrive pas etc.
Le « je rentre d'un mois de congés, résume moi ce que j'ai loupé » a produit un résultat WTF pour tous mes collègues et moi-même.

Buggué de partout, avant l'été la possibilité d'ajout de fichier à un client était présente dans l'interface mais ne fonctionnait pas (le support MS n'a pas su nous aider)

Et Github Copilot est à la ramasse complet à côté de Cursor, Claude Code ou Gemini-cli.

Va falloir qu'ils fassent quelque chose chez Microsoft car ce sont les outils IA les moins efficaces du marché. Et ils les facturent quand même à leurs utilisateurs et utilisatrices … Je leur souhaite ad minima d'avoir des bilans carbonne exemplaires (mais on sait tous que ce n'est pas le cas)

À côté de ça, on a des features Miro sympa, Gemini qui commence à faire des trucs pas mal, des outils de vibe qui commencent à produire des choses intéressantes, des options sur Jira qui juste marchent etc.

Bref pour le moment MS Copilot, aussi bien M365 que Github, c'est gênant tant c'est mauvais par rapport à la concurrence.
Un édito sur la linguistique, on aborde vraiment tous les thèmes sur Next :)

Nous connaissons bien Sencrop puisque nous sommes déjà en contact avec eux. À noter que leurs stations ne sont que des Davis Vantage Pro2 “re-brandées”, c’est-à-dire le même modèle que nous avons dans notre réseau. Leur modèle économique n’étant pas le même, et l’open-data pas forcément leur modèle non plus, nous ne parlons pas de leur activité ici, qui est très différente. Des sociétés commerciales qui installent du matos météo et en vendent le service aux agriculteurs, industriels, etc, il y en a beaucoup, beaucoup d’autres. Et nous les connaissons bien, puisque beaucoup d’entre eux ont commencé sur Infoclimat, viennent y chercher de l’info, ou même nous font des donations de matériel météo usagé.



Nous avons mis le focus sur les aspects techniques parce que c’est un peu l’esprit de Nextinpact. Certaines de nos stations émettent en LoRa, par exemple, mais nous ne voulions pas abreuver de détails. Plus d’informations sont disponibles en cliquant sur le lien qui présente notre réseau “StatIC”, où l’on explique une partie de ces problématiques (robustesse et fiabilité du matériel, etc). La partie “communication réseau” n’est qu’un détail d’implémentation.

Merci pour toutes ces précisions. Je me suis permis d’ouvrir un journal sur LinuxFR basé sur la publication de NextInpact où vous trouverez d’autres commentaires bien plus concentrés sur l’aspect « projet libre »

Il y a un nom qui est étrangement absent de l’article, celui de la société SenCrop. C’est une solution de station météo, propriétaire. Le réseau de stations de SenCrop est tout à fait respectable.



Le zoom sur les questions techniques (serveurs, traitement des données etc.) est très … urbain ? On pourrait longuement parler des réseaux 0g qui couvrent les zones blanches (il y avait eu récemment un article sur SigFox ici, on pourrait parler de LoraWan), on pourrait parler de la difficulté à bien placer une station météo (pas à l’abri, pas à découvert non-plus) ou de la nécessaire fiabilité du matériel pour résister aux conditions météo et aux accidents de tracteur ou de chasse (c’est moins grave de dégommer une station météo qu’un cycliste mais bon …)



Voilà, une série de pistes que je lance comme ça :)

L’app d’ING tient la route. Ma banque principale est ING, je connais bien pour diverses raisons les apps de boursorama, du crédit mutuel, du crédit agricole et de la caisse d’épargne.

Je dis pas le contraire, mais avant ils le faisaient dans le cadre du WhatWG. C’est étrange cette manière de contourner un groupe de travail qu’ils avaient pourtant contribuer à créer

Alibaba est un des plus grand sites de vente en ligne au monde, il me paraît parfaitement normal d’évoquer le changement de dirigeant d’une telle société. Je trouve même l’article un peu court pour un sujet de cette importance

« faisant apparaître deux options : export blanc et export blanc »



Y’a comme une coquille, non ? :)

Bon, vu que personne ne l’a fait jusqu’à présent, je vais prendre la défense de  ces sociétés.



Le côté psychologique est extrêmement important pour les personnes concernées, et c’est là le sujet.



On ne parle pas de l’infitésimal des personnes génétiquement non-binaire, mais du nombre plus important de celles et ceux (et autres ;)) qui en grandissant ne se reconnaissent pas dans leur genre biologique. Ça fait déjà beaucoup plus de clients. Une sacrée somme de pognon en jeu, donc.



Et je ne fais que parler fric, je ne parle même pas de la simple idée du respect de son prochain, y compris les personnes transgenre.



Pour les questions de carte d’identité et d’accès aux toilettes, je ne me prononcerai pas car le sujet me dépasse. Je peux juste témoigner qu’à Chtinux (chtinux.org) on a eu quelques installs parties réservées aux filles qui étaient ouvertes aux transgenres.