Gemini 3 a désormais sa variante Flash
Le 18 décembre 2025 à 16h50
2 min
IA et algorithmes
IA
Quand Google a lancé sa nouvelle famille de modèles Gemini 3, seule la variante Pro a été présentée. C’est le modèle « à tout faire » de la nouvelle génération de LLM chez Google, avec un mode rapide et un autre pour le raisonnement, selon les besoins. Mais comme souvent, beaucoup attendaient une ou plusieurs versions réduites, beaucoup moins chères et plus adaptées à certains usages.
Google complète donc son offre avec une version Flash, positionnée comme un modèle à faible latence, optimisé pour l’inférence en temps réel, tout en préservant ses capacités multimodales et un mode de raisonnement. Gemini 3 Flash accepte ainsi en entrée le texte, les photos, vidéos et tout ce qui touche à la vision, pour interroger par exemple un flux vidéo en temps réel.
Le prix est bien sûr moins élevé que le modèle Pro. Via l’API, la facture s’élève ainsi à 0,30 dollar par million de jetons en entrée et 2 dollars en sortie. Google met également sur le devant de la scène des performances élevées, avec notamment 90,4 % au test GPQA Diamond, 78 % à SWE-bench Verified ou encore 33,7 % sur Humanity Last Exam, battant du même coup plusieurs modèles plus larges.
Le nouveau LLM est disponible dans Google AI Studio, Google Antigravity, Gemini CLI, Android Studio et Vertex AI, depuis l’API.

Le 18 décembre 2025 à 16h50
Commentaires (10)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 18/12/2025 à 17h03
Le 18/12/2025 à 17h13
Modifié le 18/12/2025 à 17h22
PS : il est encore trop tôt pour réutiliser ce terme dans l'informatique, attendons encore 20 ans
Le 18/12/2025 à 17h38
Le 18/12/2025 à 17h51
Le 18/12/2025 à 18h27
Y'avait tout une affaire autour de l'effondrement des performances de Gemini 2.5 en septembre/octobre, avant le lancement de Gemini 3.
Le 18/12/2025 à 19h36
Surtout concernant ChatGPT...
Le 19/12/2025 à 08h13
Le soucis est plus la dérive (drift) dans le temps des modèles qui semble vraiment liée à des réductions de performance du LLM : lenteurs, résultats moins pertinents etc.
J'attends avec hâte une étude qui viendrait confirmer, ou infirmer, que les hébergeurs de LLM (souvent éditeurs eux-même) jouent avec ces performances. Ça semble logique, mais « ça semble logique » est un argument totalement pété ; vivement les études qui aborderont ce sujet :-)
Le 19/12/2025 à 10h32
Ça s'ajoute bien sûr, à la dégradation observée à mesure que le temps passe depuis la sortie d'un nouveau modèle.
Le 19/12/2025 à 11h57
Une dégradation entre sessions ne fait pas parti de nos constats. Ça veut pas dire que ça n'existe pas, évidement :-)
Hormis le soupçon de drift volontaire des éditeurs, mais c'est sur du moyen terme, on constate une stabilité de notre côté
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?