OpenAI lance deux modèles « ouverts » pour la première fois depuis 2019
De l’Open AI en somme ?
OpenAI a annoncé ce 5 août la disponibilité de deux modèles « ouverts », distribués sous licence open source et disponibles gratuitement depuis Hugging Face. Ils sont censés fournir des performances correctes et peuvent être exécutés localement.
Le 06 août 2025 à 16h14
6 min
IA et algorithmes
IA
C’est peu dire que des modèles ouverts étaient attendus chez OpenAI. L’ouverture, censée se refléter jusque dans le nom de l’entreprise, n’était plus un argument depuis des années. Les derniers modèles ouverts lancés par OpenAI remontaient en effet à 2019 avec GPT-2.
OpenAI a donc présenté hier soir une nouvelle famille de modèles. Baptisée GPT-OSS, elle représente a priori un changement stratégique intéressant, après plus de cinq ans de modèles exclusivement propriétaires. Mais attention, car si ces modèles sont présentés comme ouverts, avec une licence adaptée (Apache 2.0), les reproches faits dans ce domaine restent valables : les architectures et données utilisées sont tenues secrètes.
Des modèles pensés pour le fonctionnement local
Les deux premiers modèles de la famille GPT-OSS sont nommés gpt-oss-120b et gpt-oss-20b. Leurs caractéristiques se reflètent dans ces appellations : le premier comporte 117 milliards de paramètres, le second, plus compact, 21 milliards. Le gros modèle est multimodal, mais le petit doit se contenter du texte.

Les deux modèles peuvent être exécutés « localement ». Il faut cependant une machine capable de supporter ce fonctionnement, surtout pour le premier. OpenAI recommande ainsi 80 Go de mémoire pour le plus gros modèle. Ce qui le rend exécutable sur un seul GPU H100 de NVIDIA. L’autre modèle, nettement plus petit, peut se contenter de 16 Go.
Selon OpenAI, les deux modèles ont été entrainés « à l’aide d’un mélange d’apprentissage par renforcement et de techniques inspirées des modèles internes les plus avancés ». Toujours selon l’entreprise, les performances seraient à la hauteur. Le modèle gpt-oss-120b afficherait ainsi une « quasi-parité » avec o4-mini sur les tests de raisonnement de base. Le modèle gtp-oss-20b est quant à lui comparé à o3-mini.

Des hallucinations omniprésentes
Toutefois, ayant bénéficié de certaines avancées plus récentes, les modèles seraient plus à l’aise que les anciens auxquels ils sont comparés dans certaines tâches, comme l’appel de fonction et le raisonnement CoT (incitation à la chaine de pensée). Dans ces domaines, ils afficheraient des performances supérieures à o1 et GPT-4o. Dans les deux cas, la fenêtre contextuelle peut grimper jusqu’à 128 000 jetons.
Mais en dépit de ces chiffres, ces modèles open source hallucinent, et pas qu’un peu. Ainsi, gpt-oss-120b et gpt-oss-20b ont halluciné à 49,1 et 53,2 % respectivement lors des tests sur PersonQA, l’outil d’OpenAI pour mesurer la précision des réponses portant sur des personnes. Pour comparaison, o1 affiche un score de 16 %, tandis qu’o4-mini a obtenu 36 %. Ces chiffres sont donnés par OpenAI dans la Model Card de gpt-oss-120b et gpt-oss-20b (PDF).
Pourquoi maintenant ?
OpenAI semble changer son fusil d’épaule, mais pourquoi maintenant ? La piste la plus évidente serait la concurrence. Des sociétés comme Meta et Mistral publient de nombreux modèles en open source, même si cette ouverture est toujours limitée. La concurrence chinoise est également vive, depuis l’arrivée fracassante de DeepSeek, qui a remis en question l’hégémonie américaine dans le domaine de l’IA générative.
Une autre raison, comme le souligne TechCrunch, est que la Maison-Blanche a exhorté le mois dernier les développeurs d’IA à ouvrir leurs technologies. Une ouverture considérée non pas comme éthique, mais comme une arme pour diffuser plus efficacement les valeurs américaines.
« Si l’on remonte à nos débuts en 2015, la mission d’OpenAI était de garantir une AGI qui profite à toute l’humanité. À cette fin, nous sommes ravis que le monde s’appuie sur une pile d’IA ouverte créée aux États-Unis, basée sur des valeurs démocratiques, disponible gratuitement pour tous et pour un large bénéfice », a ainsi déclaré Sam Altman, CEO d’OpenAI, à nos confrères.
Large disponibilité
L’annonce des nouveaux modèles a été suivie de plusieurs autres. Chez Microsoft, on a ainsi vu la disponibilité de gpt-oss-20b confirmée sur Azure AI Foundry et Windows AI Foundry, dans une mouture optimisée pour Windows. Le second indique que le modèle est considéré comme prêt pour fonctionner sur des machines classiques, même si le prérequis de 16 Go en VRAM reste une exigence élevée pour beaucoup. Microsoft indique que le modèle sera bientôt mis à disposition pour macOS également.
En parallèle, et pour la première fois, les deux modèles d’OpenAI sont disponibles chez Amazon Web Services, à travers Amazon AI Bedrock et SageMaker AI. C’est là encore un changement important, car AWS, bien que proposant divers modèles, mettait surtout en avant Claude d’Anthropic. DeepSeek, Meta et Mistral sont également référencés chez AWS. Il est probable que la montée en puissance de Microsoft ait secoué Amazon dans sa stratégie, AWS devant maintenant jouer sur tous les tableaux et être vu comme un fournisseur neutre de tous les principaux modèles disponibles.
« L’ajout d’OpenAI en tant que nouveau fournisseur de modèles open-weight [les poids associés aux neurones sont connus, ndlr] marque une progression naturelle dans notre engagement à apporter une IA de pointe aux organisations du monde entier, et la taille inégalée de notre clientèle marque un changement transformateur dans l’accès à la technologie avancée d’OpenAI », a simplement déclaré Atul Deo, directeur des produits chez AWS.
Les modèles débarquent aussi chez Orange
Orange est également de la partie, en tant que « partenaire privilégié » d’OpenAI. L’entreprise annonce ainsi être l’une des premières au monde à déployer les nouveaux modèles dans ses propres infrastructures. Le déploiement se fait aussi bien sur les grands centres de données régionaux en France que les « petits serveurs locaux ou sites en périphérie ». L’opérateur indique se servir de son expertise dans le domaine pour personnaliser et distiller les modèles, créant ses propres sous-modèles pour des besoins spécifiques.
Orange évoque en outre son engagement pour une IA responsable et son approche « frugale ». La société française dit chercher « une haute performance tout en nécessitant moins de puissance de calcul, moins de données et moins d'énergie ». Ces modèles doivent servir à améliorer l’expérience client (dont une meilleure compréhension du langage naturel), renforcer la qualité et la résilience de ses réseaux (exploration et diagnostic) et proposer des solutions commerciales.
OpenAI lance deux modèles « ouverts » pour la première fois depuis 2019
-
Des modèles pensés pour le fonctionnement local
-
Des hallucinations omniprésentes
-
Pourquoi maintenant ?
-
Large disponibilité
-
Les modèles débarquent aussi chez Orange
Commentaires (2)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 07/08/2025 à 16h01
Insérer ici [Murika fuck yeah]
Le 11/08/2025 à 03h41
Quant à "l'intelligence" du modèle, sans être au niveau de GPT-4o et encore moins de GPT-5, disons que par rapport aux autres modèles de taille équivalente, il a quand-même la particularité de ne pas être complètement braindead. Y a quand-même beaucoup d'hallucinations dès qu'il faut mobiliser des connaissances, mais en compétence pure, par exemple en vibe-coding, il explose les versions distillées de DeepSeek-r1 de taille apte à tenir sur un GPU à 16Go de VRAM, et je ne parle même pas de LLaMa 3.1 et Gemma 3, complètement à la ramasse.
Ça a l'air d'être le meilleur modèle open-weight capable de tourner sur un GPU grand public milieu de gamme à ce jour. Mais comme d'hab, faut se calmer sur les promesses de modèle giga-intelligent qui ferait des merveilles. Juste : c'est utilisable, et c'est déjà pas mal.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?