Connexion Premium

Gemini 3 a désormais sa variante Flash

Le 18 décembre 2025 à 16h50

Quand Google a lancé sa nouvelle famille de modèles Gemini 3, seule la variante Pro a été présentée. C’est le modèle « à tout faire » de la nouvelle génération de LLM chez Google, avec un mode rapide et un autre pour le raisonnement, selon les besoins. Mais comme souvent, beaucoup attendaient une ou plusieurs versions réduites, beaucoup moins chères et plus adaptées à certains usages.

Google complète donc son offre avec une version Flash, positionnée comme un modèle à faible latence, optimisé pour l’inférence en temps réel, tout en préservant ses capacités multimodales et un mode de raisonnement. Gemini 3 Flash accepte ainsi en entrée le texte, les photos, vidéos et tout ce qui touche à la vision, pour interroger par exemple un flux vidéo en temps réel.

Le prix est bien sûr moins élevé que le modèle Pro. Via l’API, la facture s’élève ainsi à 0,30 dollar par million de jetons en entrée et 2 dollars en sortie. Google met également sur le devant de la scène des performances élevées, avec notamment 90,4 % au test GPQA Diamond, 78 % à SWE-bench Verified ou encore 33,7 % sur Humanity Last Exam, battant du même coup plusieurs modèles plus larges.

Le nouveau LLM est disponible dans Google AI Studio, Google Antigravity, Gemini CLI, Android Studio et Vertex AI, depuis l’API.

Le 18 décembre 2025 à 16h50

Commentaires (10)

votre avatar
Déception, j'attendais une version Flash :-|
votre avatar
Moi aussi, j'ai pensé à une version en collaboration avec Adobe ! :D
votre avatar
Pareil j'ai eu un ptsd en lisant le titre

PS : il est encore trop tôt pour réutiliser ce terme dans l'informatique, attendons encore 20 ans
votre avatar
Ha, je ne suis pas le seul à y avoir pensé, merci les gars :merci:
votre avatar
J'ai pensé la même...
votre avatar
On a testé le bousin au boulot. C'est assez impressionnant mais je commence tout de même à me demander si les éditeurs de LLM auraient pas une tendance à gonfler leurs modèles au démarrage pour le laisser se dégrader par la suite.

Y'avait tout une affaire autour de l'effondrement des performances de Gemini 2.5 en septembre/octobre, avant le lancement de Gemini 3.
votre avatar
Je me pose exactement les même questions. J'ai aussi l'impression que plus on utilise leurs outils, plus leurs performances se dégradent, même sur une nouvelle session, jusqu'à passé un certain temps, comme si tout était bridé par économie de ressources, au point parfois que l'efficacité baisse sérieusement.
Surtout concernant ChatGPT...
votre avatar
sur une seule session c'est assez normal. Ton contexte augmente et l'efficacité s'éttouffe. S'il est trop volumineux, il sera compressé et, même si ça s'améliore, c'est toujours un peu hasardeux (on appelle ça «faire un donut» car t'as un trou dans le contexte).

Le soucis est plus la dérive (drift) dans le temps des modèles qui semble vraiment liée à des réductions de performance du LLM : lenteurs, résultats moins pertinents etc.

J'attends avec hâte une étude qui viendrait confirmer, ou infirmer, que les hébergeurs de LLM (souvent éditeurs eux-même) jouent avec ces performances. Ça semble logique, mais « ça semble logique » est un argument totalement pété ; vivement les études qui aborderont ce sujet :-)
votre avatar
Je parlais bien du cas où l'on change de session également. Après un certain temps passé, GPT semblant être le roi là dessus, les erreurs de logique deviennent de plus en plus nombreuses même sur les nouvelles sessions, ce qui me laisse penser à un bridage.
Ça s'ajoute bien sûr, à la dégradation observée à mesure que le temps passe depuis la sortie d'un nouveau modèle.
votre avatar
ChatGPT… on teste même plus. Depuis cet été, ils sont hors course pour nous.

Une dégradation entre sessions ne fait pas parti de nos constats. Ça veut pas dire que ça n'existe pas, évidement :-)

Hormis le soupçon de drift volontaire des éditeurs, mais c'est sur du moyen terme, on constate une stabilité de notre côté

Gemini 3 a désormais sa variante Flash

Fermer