Connexion
Abonnez-vous

Meta Llama 3.2 : du modèle multimodal à celui « de poche »

Le 26 septembre à 12h31

L'entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d'images) chez Meta. En l'occurrence, il s'agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l'IA générative sans avoir à accéder à Internet.

Comme l'entreprise l'avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l'occurrence) ne sont pas disponibles pour l'Europe. Elle évoquait « la nature imprévisible de l'environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l'Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

Le 26 septembre à 12h31

Commentaires (4)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Meta adore chougner à ce que je vois ^^.
votre avatar
Non disponibles en Europe ? Les petits modèles sont téléchargeables pour Ollama, tandis que les grands vont arriver. Sinon, ils sont disponibles gratuitement chez Groq ou en payant chez Togther AI (le 90B coûte 1,2$ par million de tokens, contre 0,88$ par million de tokens pour le 3,1B).

Après la vision, ça marche bien (j'utilise Open Web UI sur mon serveur et diverses API pour l'inférence et Ollama pour les petits modèles).
votre avatar
Sinon, ils sont disponibles gratuitement chez Groq ou en payant chez Togther AI
C'est normal par rapport à leur "acceptable use policy" :
With respect to any multimodal models included in Llama 3.2, the rights granted under Section 1(a) of the Llama 3.2 Community License Agreement are not being granted to you if you are an individual domiciled in, or a company with a principal place of business in, the European Union. This restriction does not apply to end users of a product or service that incorporates any such multimodal
Voir la partie que j'ai mise en gras.
votre avatar
Elle évoquait « la nature imprévisible de l'environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans.
Même si le RGPD a été voté il y a 8 ans, la jurisprudence sur certains sujets est assez récente et je ne suis pas sûr qu'il y en ait pour le traitement de données dans le domaine de l'IA. Des données personnelles sont-elle toujours considérées personnelles si elles ne se retrouvent pas dans les modèles par exemple suite à une anonymisation ? Je sais qu'il y a eu des cas où ces données personnelles ont été ressorties par les IA et dans ce cas, il y a bien violation du RGPD mais je ne parle pas de ces cas là.

On peut comprendre que Meta qui se prend régulièrement des amendes pour violation du RGPD en dehors des modèles d'IA attende de savoir ce que sera la jurisprudence avant de se lancer dans l'UE.

Meta Llama 3.2 : du modèle multimodal à celui « de poche »

Fermer