Mistral AI annonce la sortie de son modèle « Mistral Large »
Le 27 février à 07h00
2 min
IA et algorithmes
IA
Dans un billet titré « Au Large », la startup française a annoncé, lundi 26 février, la sortie de son nouveau modèle qui proposerait des performances proches de GPT-4 d'OpenAI. Le billet communique sur la fenêtre contextuelle de 32 000 jetons du modèle et de la possibilité de l'utiliser dans plusieurs langues.
Côté modération, l'entreprise explique qu'elle a mis en place un « suivi précis des instructions » qui permet aux développeurs de définir leurs politiques de modération, avec un mode « sécurisé optionnel » qui permet d'activer une modération de contenu sensible.
Mistral AI met aussi en avant son système d'appel de fonctions qui permet de le connecter à d'autres outils externes.
Contrairement aux premiers modèles de la startup française, « Large » n'est pas publié en ligne et n'est d'aucune façon « open source ». L'entreprise propose soit de l'utiliser sur son infrastructure basée dans l'Union européenne « La Plateforme », sur celle d'Azure ou en « déploiement en propre ». Mais pour cette dernière possibilité, Mistral AI demande de la contacter, et donc de passer par un contrat spécifique.
Dans son billet, l'entreprise met d'ailleurs plus en avant sa solution hébergée par la solution Cloud de Microsoft que celle hébergée par ses propres soins.
Copiant ChatGPT, l'entreprise lance aussi un chatbot nommé le Chat. Celui-ci utilise le système de définition de politiques de modération créé par l'entreprise.
Mistral AI publie quelques comparaisons avec d'autres modèles sans toutefois entrer dans les détails techniques. Elle ne donne pas non plus les éléments pour connaître la consommation d'énergie de son modèle et ne communique pas sur les données sur lesquelles il a été entraîné.
Le 27 février à 07h00
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/02/2024 à 07h35
Par exemple il me pointait à un moment un défaut de cohérence sur les guillemets (un coup anglais, un coup français). Ce qui était faux puisque le texte était entièrement avec les signes français. Pareil pour certains mots où il s'était basé sur leur version anglaise (exemple : il me disait de mettre un "e" à "guitar", qui était correctement orthographié dans le texte original). Enfin, j'ai noté parfois qu'il mangeait des tokens car j'ai eu "corriger sovnt en souvent". En fait, je me demande s'il n'aurait pas eu un entraînement insuffisant en français par rapport à l'anglais et donc qu'il manquerait de données.
Par contre, lorsque j'ai fait un dernier essai en le basculant en mode "Strict" (je ne sais pas si c'est un param "officiel" du modèle ou bien une surcouche côté Infomaniak pour éviter de manipuler trop finement la température, les top et les pénalités), le résultat fut bien meilleur qu'en "Standard". En Standard il est plus adapté pour du chat bot, et je pense qu'il est trop créatif dans ce mode. En Strict, il est plus déterministe et cela semble bien correspondre au use-case de correcteur de texte.
C'est vraiment intéressant de voir à quel point le comportement de ces outils peut changer juste avec quelques params.
Le 27/02/2024 à 10h55
Désolé aussi...
Le 27/02/2024 à 09h03
#desolé
Il falait la faire, maintenant je vais lire la news ^^
Le 27/02/2024 à 10h00
Le 27/02/2024 à 09h31
Le 27/02/2024 à 18h14
En matière de traitement de données personnelles, ils invitent à anonymiser les prompts. J'ai des doutes que ce soit très légal du point de vue du RGPD pour le coup car le consentement ne me semble pas libre et éclairé.
Plus loin,
Comme toujours, faire attention à ce qu'on donne à un modèle public. Ils ont une très bonne mémoire.
Perso je vais jouer un peu avec pour voir ce qu'il donne, mais clairement, je vais plutôt rester sur le Mixtral 8x7B proposé par Infomaniak qui me rassure plus en matière de confidentialité d'usage.
Le 01/03/2024 à 12h59