OpenAI sort GPT-5.4, avec deux versions tournées vers les tâches « professionnelles »
Le 06 mars à 07h47
3 min
IA et algorithmes
IA
OpenAI avance un nouveau pion dans la course effrénée que se livrent les acteurs de l’IA générative avec la sortie, jeudi 5 mars, de GPT‑5.4, dernière itération en date de son grand modèle de langage. Immédiatement disponible au travers de ChatGPT, des API proposées aux entreprises ou de Codex, l’outil dédié aux développeurs, GPT‑5.4 est décliné en deux versions : GPT‑5.4 Pro, « pour les personnes qui recherchent une performance maximale sur des tâches complexes », et GPT‑5.4 Thinking, qui promet des capacités plus poussées en matière de recherche en ligne, de taille de contexte et de gestion des requêtes complexes.
Dans un long article de présentation, rempli de tests de performance superlatifs, OpenAI indique avoir mis, avec GPT‑5.4, l’accent sur la capacité à créer et éditer des documents bureautiques (un nouveau plugin Excel est par ailleurs lancé en même temps), mais aussi sur la capacité à contrôler un ordinateur et à voir (c’est-à-dire à analyser le contenu de captures d’écran) le résultat de ses actions au fil de l’eau. Difficile de ne pas y voir une réponse directe aux comportements agentiques développés par Anthropic avec Claude Cowork.
OpenAI accompagne le déploiement de GPT‑5.4 d’une série de mesures de performance qui attestent, selon l’entreprise, de la supériorité de son nouveau modèle sur les deux références concurrentes du moment, à savoir Claude Opus 4.6 et Gemini 3.1 Pro.
GPT‑5.4 fait actuellement l’objet d’un déploiement progressif, et doit selon OpenAI s’imposer auprès des utilisateurs comme le nouveau modèle de référence. Le nouveau venu va d’ailleurs évincer GPT-5.2 Thinking qui sera mis à la retraite d’ici trois mois. Le changement n’est pas tout à fait anodin pour les gros consommateurs : GPT-5.4 est en effet facturé plus cher que son prédécesseur. En version API, il faut ainsi compter 2,5 dollars par million de jetons, quand GPT-5.2 était à 1,75 dollar.
Au fait, pourquoi GPT-5.4, alors que les versions Pro utilisaient jusqu’ici GPT-5.2, sorti en décembre, et que OpenAI a en parallèle sorti GPT-5.3 Codex début février et GPT-5.3 Instant début mars ? OpenAI l’explique de la façon suivante :
« GPT-5.4 est notre premier modèle de raisonnement principal intégrant les fonctionnalités de codage avancées de GPT-5.3-codex et déployé progressivement sur ChatGPT, l’API et Codex. Nous l’appelons GPT-5.4 pour refléter cette évolution et simplifier le choix entre les modèles lors de l’utilisation de Codex. Nos modèles Instant et Thinking évolueront à des rythmes différents au fil du temps. »
Le 06 mars à 07h47
Commentaires (10)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 6 mars à 08h20
Le 6 mars à 09h11
Mais y'a intérêt à ce que ça soit à la hauteur ; ChatGPT est décevant depuis cet été, leurs modèles étaient derrière Claude ou Gemini.
On va tester ce nouveau modèle, il a intérêt à répondre au soucis de qualité très inégale des réponses qui fait la marque de fabrique de ChatGPT ces derniers mois et les a relégués en tier-2 des modèles du marché.
Le 6 mars à 10h45
Donc pour résumer : GPT-5.4 inclut GPT-5.3-codex + une hausse de performances sur l'aspect généraliste ?
Donc on ne devrait plus avoir besoin de GPT-5.3-codex ?
Au moins la segmentation des modèles chez Anthropic est simple à suivre 🙃
Même si un Sonnet-4.6 avec thinking est souvent aussi efficace qu'un Opus-4.6 dans une majorité des cas (c'est ce que je relève à l'usage en tout cas).
Le 6 mars à 11h31
De même, je planifie tous les dev. Je ne procède quasiment plus en modification directe. De toutes façons, à présent, la plupart des agents de vibe-coding vont créer un plan même si on ne demande pas :-)
Le 6 mars à 12h54
Comme je disais dans l'autre actu, mieux qu'une bulle spéculative, ce sont les lubies autoritaires qui risquent de tuer ces entreprises
(ce qui devrait faire plaisir, je suppose)
Le 6 mars à 14h13
Le 6 mars à 11h29
Le 6 mars à 11h46
P.S : d'ailleurs, que devient l'IA de next, que je n'ai pas vu depuis si longtemps que j'en ai oublié le nom ? 🤖
Modifié le 6 mars à 13h32
Le 6 mars à 13h33
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?