Connexion Premium

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Faire moins ou payer plus

Anthropic change ses règles du jeu, des applications tierces aux limites des sessions

Anthropic

Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.

Le 07 avril à 09h02

Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.

Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.

Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire

Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.

Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».

Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».

Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».

OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».

Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».

« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage

Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.

« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.

Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».

Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».

Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.

C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.

Fuite de Claude Code et de Mythos

Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.

Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.

Commentaires (21)

votre avatar
OpenAI suit progressivement la même trajectoire avec codex, les limites d'utilisation des abonnements plus/pro ayant été largement revues à la baisse, avec au final quelque chose d'assez proche des coups de l'API.
Quand à Antigravity c'est devenu inutilisable, ça coupe très régulièrement pour cause de trafic trop élevé.
votre avatar
J'allais en parler ... J'ai vu circuler une projection des futurs abonnements à 20000+ dollars mensuels (et énorme limitation des comptes gratuits/payants autres).
votre avatar
En Anglais, ça s'appelle un reality check.

Edit : est-ce que vous avez aussi une erreur à chaque envoi de commentaire mais ça marche quand même quand vous rafraichissez la page ?
votre avatar
Oui, j'ai remonté à l'équipe.
votre avatar
Effectivement, il y a un message d'erreur qui parle d'ailleurs d'une autre news et qui indique que ton commentaire n'a pas pu être publié. Et lorsque tu cliques à nouveau sur "répondre", il indique que tu as déjà envoyé un commentaire identique. Bon au moins, il n'y a pas 2 commentaires.

Edit : l'erreur s'est bien évidemment reproduite et j'ai lu plus attentivement le message. Il ne parle pas d'une autre news mais de WordPress et de son débogage. En lisant vite la première fois, j'ai fait l'amalgame avec la news sur EmDash et WordPress.
votre avatar
à supprimer
votre avatar
Quelqu'un a testé la solution de Mistral?
votre avatar
Malheureusement, Mistral est à des années lumière de Claude Opus 4.6 et ChatGPT 5.4...
Par contre Google a sorti un nouveau modèle open-source pouvant être exécuté localement sans connexion internet, nommé Gemma 4, qui est très convaincant pour tous types d'usages, pour un modèle local.
votre avatar
C'est certain, cependant, ca dépend des tâches à effectuer.
Vu le prix faible des tokens Mistral ce serait dommage de l'exclure totalement. Il faut juste jongler entre les modèles en fonction des tâches (ce que peut faire OpenClaw ).
votre avatar
La vacherie par contre... tu passes d'un modèle à 4 milliards de paramètres et 128k token de contexte qui tient dans 9.6Go de VRAM à un modèle 26 milliards et 256k tokens qui occupe... 18Go, juste un peu trop pour tenir dans un GPU avec 16Go.

Je comprends pas que les boîtes qui font des modèles de ces tailles, càd à peu près la bonne pour tenir sur des cartes grand public, ne visent pas des tailles adaptées à des gammes de GPU données.

Visez 6Go, puis 14, puis 20-22, puis 28-30. Arrêtez de faire des modèles de 9Go, puis 18, puis 25 puis 36. Ou alors arrêtez de prétendre que vos modèles sont faits pour être exécutés en local.
votre avatar
J'ai Gemma 4 avec 4 milliards de paramètres sur mon tel, mais du 26B je pense pas que ça passe sur ma 4080 :/
votre avatar
'Faut bien compenser la perte des marchés publics sponsorisés par Trump. ^^'
votre avatar
Attention : réclamer son crédit entraîne l'activation de l'acceptation de facturation supplémentaire en cas de dépassement.
C'est désactivable ensuite.
votre avatar
Ces nouvelles limitations sont très clairement pénibles, même avec un usage optimisé comme cité (nouvelle session, fenêtre de contexte réduite, etc). Le quota explose beaucoup trop rapidement. Sans parler du nombre de sessions que j'ai vu freeze et devenir irrécupérables pour une raison que j'ignore.

L'intérêt financier, pour pousser sur les usages Max, je peux l'entendre.
Mais pourquoi imposer alors ces limites même sur Max ? Que cela se fasse sur l'offre Free, un peu moins fortement sur l'offre Pro, et plus du tout dès l'offre Max...
votre avatar
Je suis sur MAX 100$ et parfois 200$ quand j'ai vraiment de gros besoins (rarement).
En travaillant sur un seul projet à la fois et en faisant gaffe au contexte (je dépasse très rarement 150K), c'est difficile d'atteindre la limite avec Opus 4.6 en High / Max raisoning.
votre avatar
Dans la continuité d'un truc commencé la semaine dernière, j'ai envoyé 1 unique requête.
Pas de réponse, et quota déjà atteint ! :mdr:
Si moi, à mon très faible niveau d'utilisation, je me trouve déjà bloqué en 1 requête, ça risque de râler (et de piquer) très fort dans d'autres chaumières :mdr2:
M'est avis qu'avec un changement aussi strict ils risquent, eux aussi, de se tirer une balle dans le pied et les utilisateurs occasionnels vont simplement changer de crèmerie.
Est-ce que ça entraînera dans leur sillage une partie de ceux qui, actuellement, paient ?
La popularité et la conversion, c'est très fluctuant de nos jours, la fidélisation c'est devenu rare (je trouve).
votre avatar
Si tu a repris une conversation existante, ton unique requête a balancé tout ton historique et fait explosé ton quota
votre avatar
Les conversations sont pas isolées les une des autres ?
En tout cas il me semble que Gemini pro c’est comme ça.
votre avatar
Les conversations sont isolées les unes des autres, par contre le modèle remonte tout l'historique de la conversation en question quand tu la relances. Si elle est longue et n'a pas été compactée, ça consomme donc pas mal de tokens.

Pour limiter la casse (ou les frais), il est conseillé de relancer une nouvelle conversation (ou à défaut, de faire générer une synthèse de la conversation en cours et d'utiliser le résultat comme prompt de départ pour le contexte de la nouvelle).
votre avatar
j utilise a son maximum le plan max a 110€ (tva en sus) depuis décembre. sur la session hedbo, je manquais de credit au debut. plus maintenant. 2 choses : bien l'utiliser (les longues conversationsà mais aussi les progrés du moteur sur la memoire, fini le compactage des discussions toutes les 3 minutes... Moi c 'est ce qsue je constate : mieux pour le même prix