Meta Llama 3.2 : du modèle multimodal à celui « de poche »
Le 26 septembre à 12h31
1 min
IA et algorithmes
IA
L'entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.
Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d'images) chez Meta. En l'occurrence, il s'agit des modèles 11B et 90B de la famille.
Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l'IA générative sans avoir à accéder à Internet.
Comme l'entreprise l'avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l'occurrence) ne sont pas disponibles pour l'Europe. Elle évoquait « la nature imprévisible de l'environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l'Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.
Le 26 septembre à 12h31
Commentaires (4)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousModifié le 26/09/2024 à 13h30
Le 26/09/2024 à 14h49
Après la vision, ça marche bien (j'utilise Open Web UI sur mon serveur et diverses API pour l'inférence et Ollama pour les petits modèles).
Le 26/09/2024 à 18h43
Voir la partie que j'ai mise en gras.
Le 26/09/2024 à 18h40
On peut comprendre que Meta qui se prend régulièrement des amendes pour violation du RGPD en dehors des modèles d'IA attende de savoir ce que sera la jurisprudence avant de se lancer dans l'UE.