Connexion
Abonnez-vous

OpenAI ne sortira pas o3 en « standalone »

Le 13 février à 10h32

En décembre dernier, OpenAI vantait les capacités de son nouveau modèle o3. Mais l'entreprise a finalement décidé de ne pas sortir ce modèle seul.

Dans un message publié sur X, le CEO de l'entreprise, Sam Altman, affirme : « Nous ne livrerons pas o3 en tant que modèle autonome ». Comme le fait remarquer TechCrunch, le responsable produit d'OpenAI, Kevin Weil, avait pourtant annoncé il y a moins d'un mois la sortie de o3 pour « février-mars ».

logo OpenAI dans l'obscurité
Mojahid Mottakin - Unsplash

Mais OpenAI va finalement arrêter de commercialiser l'accès à un seul modèle. Elle s'apprête à proposer l'accès à des systèmes plus globaux mêlant l'utilisation des modèles de la série o et de la série GPT. Le premier de ces systèmes sera accessible sous l'appellation GPT-5. « L'un de nos principaux objectifs est d'unifier les modèles de la série O et les modèles de la série GPT en créant des systèmes capables d'utiliser tous nos outils, de savoir quand réfléchir longuement ou non, et d'être généralement utiles pour un très large éventail de tâches », affirme Sam Altman.

Avant cela, OpenAI proposera quand même l'accès à un dernier modèle seul dans les prochaines semaines. Celui-ci était baptisé « Orion » en interne et devait devenir GPT-5, mais sortira sous le nom GPT-4.5.

Le 13 février à 10h32

Commentaires (4)

votre avatar
Ça va aussi permettre d'utiliser des modèles plus léger lorsque le nombre de requête simultanées sera important. Habile.
votre avatar
une boite noire autour des boites noires...
votre avatar
Je dirais plutôt que ça permet de ne pas utiliser un camion quand une brouette suffit pour accomplir la tâche demandée. C'est une décision rationnelle sur la gestion des resources. Ils ont juste bien observé que ce n'est pas parce que l'on souscrit à une formule premium que toutes nos requêtes le sont...

Dégrader la qualité de la prestation quand la charge viendrai à augmenter serait une très mauvaise idée. Optimiser l'usage des moyens permet au contraire de réduire la charge, sans pour autant dégrader la qualité de la prestation. Ça permet d'absorber une charge de travail plus importante avec des moyens identiques ou bien de réduire les coûts d'exploitation pour une même charge.
votre avatar
Exactement, ce sont des pistes qui sont explorées actuellement pour optimiser les ressources.

Comme tu l'as très bien expliqué, pas besoin de sortir le bazooka pour tuer une mouche.

Il y a aussi l’aspect spécialisation : par exemple, un réseau dédié à la résolution de problèmes mathématiques ou un autre spécialisé dans la rédaction d’emails seront bien plus léger qu’une IA généraliste capable de répondre à toutes les questions.

Si on peut orienter la question vers le bon modèle ou activer uniquement les zones pertinentes du réseau (un peu comme notre cerveau, où des zones spécialisées dans certaines fonctions s'activent selon les stimuli, plutôt que tout le cerveau actif en permanence), on peut gagner en efficacité.

Ces questions là sont devenues encore plus prioritaire depuis que Deepseek est venu secoué le marché

OpenAI ne sortira pas o3 en « standalone »

Fermer