Google annonce la sortie de Gemini 1.5
Le 19 février à 07h12
2 min
IA et algorithmes
IA
Une semaine après avoir annoncé avoir rebaptisé toute sa panoplie d'outils d'IA générative du nom de Gemini, Google lui ajoute une « nouvelle génération » de modèles : Gemini 1.5.
Le CEO de DeepMind, Demis Hassabis, explique qu' « Il s'agit d'un changement radical de notre approche, qui s'appuie sur des innovations en matière de recherche et d'ingénierie dans presque tous les domaines du développement et de l'infrastructure de notre modèle de base. Gemini 1.5 est notamment plus efficace en termes de formation et de service, grâce à une nouvelle architecture de Mélange d'experts (MoE) [ndlr : un réseau de neurones s'appuyant sur plusieurs autres plus petits] ».
Google propose pour chaque génération trois tailles : Ultra pour les tâches très complexes, Pro pour des performances importantes et un déploiement à grande échelle, et Nano pour les applications sur appareils.
Selon le CEO de l'entreprise, Sundar Pichai, Gemini « 1.5 Pro atteint une qualité comparable à 1.0 Ultra, tout en utilisant moins de calcul ».
1.5 Pro est le premier modèle de la génération à être disponible. Il est utilisable avec une fenêtre contextuelle standard de 128 000 jetons (la génération 1.0 en avait une de 32 000). Google explique qu'un groupe limité de développeurs et d'entreprise peuvent accéder à une version avec une fenêtre contextuelle d'un million de tokens.
Le 19 février à 07h12
Commentaires (13)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 19/02/2024 à 08h25
Pendant ce temps là, j'ai testé ce week-end (vu que j'y ai eu l'accès) le Mixtral proposé par Infomaniak et c'est pas dégueux. Je pense que ce doit être Mixtral-8x7B derrière - qui semble d'ailleurs avoir le même type d'architecture que Gemini - j'ai demandé au support s'ils pouvaient me le confirmer (avec au passage les limites d'usage, c'était pas spécialement indiqué). Les temps de réponse sont encore assez longs, mais après une bonne série d'étapes de tests j'ai pu avoir un system prompt qui retournait ce que j'attendais, le tout emballé dans un front web bricolé maison (avec estimation du coût de la requête). L'offre propose 1 millions de tokens en démarrage avant de facturer, valables jusque fin mars me concernant. Avec tous mes essais du wenk-end (dont des prompts à 12k), je suis à 850k restants, autant dire que j'ai encore de la marge. En limitations j'ai parfois noté qu'il avait tendance à rebasculer en anglais malgré un prompt (voire system prompt) en français.
Mais plus j'ai avancé, plus j'ai de moins en moins envie de renew l'abo ChatGPT Plus. J'ai fait quelques comparaisons entre GPT-4 et Mixtral proposé via kChat, notamment pour l'assistance à la génération de code, et c'était relativement proche. L'API permet de générer pas mal de params pour tuner le comportement du modèle. J'ai pas fait le calcul de combien la limite de 20€/mois de dépense que j'ai fixé (minimum syndical autorisé) me reviendrait, mais je pense que ça sera rentable.
Les acteurs européens ont besoin de plus de visibilité !
Le 19/02/2024 à 09h41
- tendance à rebasculer en anglais sans raison particulière
- bluffé par les performances !
Le 19/02/2024 à 11h45
Après mes premiers tests ont été bourrins, j'ai voulu expérimenter mon use-case sur des prompts à 10k tokens
Le 19/02/2024 à 13h46
Le 19/02/2024 à 14h08
Le 19/02/2024 à 17h23
Le 19/02/2024 à 14h22
Mais apparemment les perfs en CPU-only sont dégueulasses.
Le 19/02/2024 à 17h24
Le 19/02/2024 à 17h50
Le 19/02/2024 à 13h22
Le 19/02/2024 à 09h13
Le 19/02/2024 à 10h19
On a commencé par des nombres de paramètres, de neurones/synapses, ....
Maintenant on met des numéros de version avec décimal, des suffixes pro/ultra/entreprise, ...
Bientôt des benchmark standardise avec des scores...
Le 28/02/2024 à 20h28