LLaMa (Large Language Model Meta AI), le modèle de langage annoncé par Facebook le 24 février et censé être réservé aux seuls chercheurs agréés, aux organisations gouvernementales et à certains membres de la société civile, a fuité sur 4chan, rapporte MotherBoard :
« C'est la première fois que le modèle d'IA propriétaire d'une grande entreprise technologique est divulgué publiquement. Jusqu'à ce jour, des entreprises comme Google, Microsoft et OpenAI avaient gardé leurs nouveaux modèles privés, accessibles uniquement via des interfaces grand public ou une API, apparemment pour contrôler les cas d'utilisation abusive. »
Meta avait annoncé vouloir le partager « avec les membres de la communauté de recherche pour nous aider à évaluer et à améliorer ces modèles », explique un porte-parole de l'entreprise :
« LLaMA a été partagé à des fins de recherche, conformément à la façon dont nous avons partagé les grands modèles de langage précédents. Bien que le modèle ne soit pas accessible à tous et que certains aient tenté de contourner le processus d'approbation, nous pensons que la stratégie de publication actuelle nous permet d'équilibrer responsabilité et ouverture. »
LLaMA a été entraîné à partir de plusieurs dizaines de milliards de données récupérées sur Wikipedia, des livres, des articles universitaires d'ArXiv, GitHub, Stack Exchange et d'autres sites.
Meta expliquait que « l'accès au modèle sera accordé au cas par cas aux chercheurs universitaires ; ceux affiliés à des organisations du gouvernement, de la société civile et du milieu universitaire ; et les laboratoires de recherche de l'industrie du monde entier ».
Or, relève Analytics India Mag, la personne responsable de la fuite aurait partagé son code d'identification unique dans le lien torrent qu'il a rendu public, offrant potentiellement la possibilité à Meta de l'identifier.
« Certains craignent que la technologie ne soit utilisée à des fins nuisibles ; d'autres disent qu'un meilleur accès améliorera la sécurité de l'IA », estiment les chercheurs interrogés par The Verge.
Commentaires