Une semaine après avoir annoncé avoir rebaptisé toute sa panoplie d'outils d'IA générative du nom de Gemini, Google lui ajoute une « nouvelle génération » de modèles : Gemini 1.5.
Le CEO de DeepMind, Demis Hassabis, explique qu' « Il s'agit d'un changement radical de notre approche, qui s'appuie sur des innovations en matière de recherche et d'ingénierie dans presque tous les domaines du développement et de l'infrastructure de notre modèle de base. Gemini 1.5 est notamment plus efficace en termes de formation et de service, grâce à une nouvelle architecture de Mélange d'experts (MoE) [ndlr : un réseau de neurones s'appuyant sur plusieurs autres plus petits] ».
Google propose pour chaque génération trois tailles : Ultra pour les tâches très complexes, Pro pour des performances importantes et un déploiement à grande échelle, et Nano pour les applications sur appareils.
Selon le CEO de l'entreprise, Sundar Pichai, Gemini « 1.5 Pro atteint une qualité comparable à 1.0 Ultra, tout en utilisant moins de calcul ».
1.5 Pro est le premier modèle de la génération à être disponible. Il est utilisable avec une fenêtre contextuelle standard de 128 000 jetons (la génération 1.0 en avait une de 32 000). Google explique qu'un groupe limité de développeurs et d'entreprise peuvent accéder à une version avec une fenêtre contextuelle d'un million de tokens.
Commentaires (13)
#1
Au même niveau que GPT-4 Turbo chez OpenAI/Microsoft en gros.
Pendant ce temps là, j'ai testé ce week-end (vu que j'y ai eu l'accès) le Mixtral proposé par Infomaniak et c'est pas dégueux. Je pense que ce doit être Mixtral-8x7B derrière - qui semble d'ailleurs avoir le même type d'architecture que Gemini - j'ai demandé au support s'ils pouvaient me le confirmer (avec au passage les limites d'usage, c'était pas spécialement indiqué). Les temps de réponse sont encore assez longs, mais après une bonne série d'étapes de tests j'ai pu avoir un system prompt qui retournait ce que j'attendais, le tout emballé dans un front web bricolé maison (avec estimation du coût de la requête). L'offre propose 1 millions de tokens en démarrage avant de facturer, valables jusque fin mars me concernant. Avec tous mes essais du wenk-end (dont des prompts à 12k), je suis à 850k restants, autant dire que j'ai encore de la marge. En limitations j'ai parfois noté qu'il avait tendance à rebasculer en anglais malgré un prompt (voire system prompt) en français.
Mais plus j'ai avancé, plus j'ai de moins en moins envie de renew l'abo ChatGPT Plus. J'ai fait quelques comparaisons entre GPT-4 et Mixtral proposé via kChat, notamment pour l'assistance à la génération de code, et c'était relativement proche. L'API permet de générer pas mal de params pour tuner le comportement du modèle. J'ai pas fait le calcul de combien la limite de 20€/mois de dépense que j'ai fixé (minimum syndical autorisé) me reviendrait, mais je pense que ça sera rentable.
Les acteurs européens ont besoin de plus de visibilité !
#1.1
- tendance à rebasculer en anglais sans raison particulière
- bluffé par les performances !
#1.2
Après mes premiers tests ont été bourrins, j'ai voulu expérimenter mon use-case sur des prompts à 10k tokens
#1.4
#1.5
#1.7
#1.6
Mais apparemment les perfs en CPU-only sont dégueulasses.
#1.8
#1.9
#1.3
Réponse reçue du support, c'est bien le modèle utilisé par Infomaniak.
#2
#3
On a commencé par des nombres de paramètres, de neurones/synapses, ....
Maintenant on met des numéros de version avec décimal, des suffixes pro/ultra/entreprise, ...
Bientôt des benchmark standardise avec des scores...
#4