logo de Mistral AI

Mistral AI annonce la sortie de son modèle « Mistral Large »

logo de Mistral AI

Dans un billet titré « Au Large », la startup française a annoncé, lundi 26 février, la sortie de son nouveau modèle qui proposerait des performances proches de GPT-4 d'OpenAI. Le billet communique sur la fenêtre contextuelle de 32 000 jetons du modèle et de la possibilité de l'utiliser dans plusieurs langues.

Côté modération, l'entreprise explique qu'elle a mis en place un « suivi précis des instructions » qui permet aux développeurs de définir leurs politiques de modération, avec un mode « sécurisé optionnel » qui permet d'activer une modération de contenu sensible.

Mistral AI met aussi en avant son système d'appel de fonctions qui permet de le connecter à d'autres outils externes.

Contrairement aux premiers modèles de la startup française, « Large » n'est pas publié en ligne et n'est d'aucune façon « open source ». L'entreprise propose soit de l'utiliser sur son infrastructure basée dans l'Union européenne « La Plateforme », sur celle d'Azure ou en « déploiement en propre ». Mais pour cette dernière possibilité, Mistral AI demande de la contacter, et donc de passer par un contrat spécifique.

Dans son billet, l'entreprise met d'ailleurs plus en avant sa solution hébergée par la solution Cloud de Microsoft que celle hébergée par ses propres soins.

Copiant ChatGPT, l'entreprise lance aussi un chatbot nommé le Chat. Celui-ci utilise le système de définition de politiques de modération créé par l'entreprise.

Mistral AI publie quelques comparaisons avec d'autres modèles sans toutefois entrer dans les détails techniques. Elle ne donne pas non plus les éléments pour connaître la consommation d'énergie de son modèle et ne communique pas sur les données sur lesquelles il a été entraîné.

Commentaires (7)


Concernant Mixtral 8x7B je commence à avoir des retours d'expérience intéressants sur la pratique. Outre sa tendance à répondre sans aucune raison en anglais par moments, j'ai en fait l'impression qu'il travaille nativement ainsi. Dans mon cas d'usage de revue de texte, il "trouve" des erreurs qui n'existent pas.

Par exemple il me pointait à un moment un défaut de cohérence sur les guillemets (un coup anglais, un coup français). Ce qui était faux puisque le texte était entièrement avec les signes français. Pareil pour certains mots où il s'était basé sur leur version anglaise (exemple : il me disait de mettre un "e" à "guitar", qui était correctement orthographié dans le texte original). Enfin, j'ai noté parfois qu'il mangeait des tokens car j'ai eu "corriger sovnt en souvent". En fait, je me demande s'il n'aurait pas eu un entraînement insuffisant en français par rapport à l'anglais et donc qu'il manquerait de données.

Par contre, lorsque j'ai fait un dernier essai en le basculant en mode "Strict" (je ne sais pas si c'est un param "officiel" du modèle ou bien une surcouche côté Infomaniak pour éviter de manipuler trop finement la température, les top et les pénalités), le résultat fut bien meilleur qu'en "Standard". En Standard il est plus adapté pour du chat bot, et je pense qu'il est trop créatif dans ce mode. En Strict, il est plus déterministe et cela semble bien correspondre au use-case de correcteur de texte.

C'est vraiment intéressant de voir à quel point le comportement de ces outils peut changer juste avec quelques params.
Dans mon cas d'usage de revue de texte, il "trouve" des erreurs qui n'existent pas


Pas étonnant, il nous niquait l'aidant...
Désolé aussi...
Est-ce un mistral gagnant ?

#desolé
Il falait la faire, maintenant je vais lire la news ^^
Tu mérites de te prendre une tarte. ta-ta-tin.
Encore une IA qui se ferme après un contrat avec Microsoft :roll:
Après lecture des conditions d'utilisation du service Le Chat, il est important de noter que le seul moyen de pouvoir opt-out de la sauvegarde des prompts et résultats pour entraîner le modèle derrière est de passer par l'option payante.

En matière de traitement de données personnelles, ils invitent à anonymiser les prompts. J'ai des doutes que ce soit très légal du point de vue du RGPD pour le coup car le consentement ne me semble pas libre et éclairé.
If You wish to exclude Personal Data (in a clear, identifiable form) from the Training Data, You must pseudonymize Your Prompts,
Your must not include sensitive Personal Data in Your Prompts,
You must not include sensitive business data such as, for instance, trade-secrets, know-how, etc, in Your Prompts.


Plus loin,
Opt-out of the Mistral AITraining Data at any time by activating the relevant option on Your Account. In such a case, Mistral AI will not use Your Prompts and Outputs to train its Models. Please note that Your opt-out may only be effective for future Prompts and Outputs, as technical limitations inherent to the Chat Services may prevent Mistral AI from deleting all previously provided Prompts and Outputs from Mistral AI Training Data, even if you have opted out. Mistral AI may also use Your Prompts and Outputs to monitor abuse as set out in Section (Your User Data) of the Terms of Use.


Comme toujours, faire attention à ce qu'on donne à un modèle public. Ils ont une très bonne mémoire.

Perso je vais jouer un peu avec pour voir ce qu'il donne, mais clairement, je vais plutôt rester sur le Mixtral 8x7B proposé par Infomaniak qui me rassure plus en matière de confidentialité d'usage.
Copiant ChatGPT, l'entreprise lance aussi un chatbot nommé le Chat. Celui-ci utilise le système de définition de politiques de modération créé par l'entreprise.


Une petite évaluation du Chat par Le Monde (1er mars 2024).
Fermer