OpenAI ne sortira pas o3 en « standalone »
Le 13 février à 10h32
2 min
IA et algorithmes
IA
En décembre dernier, OpenAI vantait les capacités de son nouveau modèle o3. Mais l'entreprise a finalement décidé de ne pas sortir ce modèle seul.
Dans un message publié sur X, le CEO de l'entreprise, Sam Altman, affirme : « Nous ne livrerons pas o3 en tant que modèle autonome ». Comme le fait remarquer TechCrunch, le responsable produit d'OpenAI, Kevin Weil, avait pourtant annoncé il y a moins d'un mois la sortie de o3 pour « février-mars ».

Mais OpenAI va finalement arrêter de commercialiser l'accès à un seul modèle. Elle s'apprête à proposer l'accès à des systèmes plus globaux mêlant l'utilisation des modèles de la série o et de la série GPT. Le premier de ces systèmes sera accessible sous l'appellation GPT-5. « L'un de nos principaux objectifs est d'unifier les modèles de la série O et les modèles de la série GPT en créant des systèmes capables d'utiliser tous nos outils, de savoir quand réfléchir longuement ou non, et d'être généralement utiles pour un très large éventail de tâches », affirme Sam Altman.
Avant cela, OpenAI proposera quand même l'accès à un dernier modèle seul dans les prochaines semaines. Celui-ci était baptisé « Orion » en interne et devait devenir GPT-5, mais sortira sous le nom GPT-4.5.
Le 13 février à 10h32
Commentaires (4)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 13/02/2025 à 12h23
Modifié le 13/02/2025 à 13h40
Le 14/02/2025 à 12h35
Dégrader la qualité de la prestation quand la charge viendrai à augmenter serait une très mauvaise idée. Optimiser l'usage des moyens permet au contraire de réduire la charge, sans pour autant dégrader la qualité de la prestation. Ça permet d'absorber une charge de travail plus importante avec des moyens identiques ou bien de réduire les coûts d'exploitation pour une même charge.
Le 15/02/2025 à 16h19
Comme tu l'as très bien expliqué, pas besoin de sortir le bazooka pour tuer une mouche.
Il y a aussi l’aspect spécialisation : par exemple, un réseau dédié à la résolution de problèmes mathématiques ou un autre spécialisé dans la rédaction d’emails seront bien plus léger qu’une IA généraliste capable de répondre à toutes les questions.
Si on peut orienter la question vers le bon modèle ou activer uniquement les zones pertinentes du réseau (un peu comme notre cerveau, où des zones spécialisées dans certaines fonctions s'activent selon les stimuli, plutôt que tout le cerveau actif en permanence), on peut gagner en efficacité.
Ces questions là sont devenues encore plus prioritaire depuis que Deepseek est venu secoué le marché