IA : LLaMa, le modèle de langage de Meta concurrent d’OpenAI a fuité sur 4chan
Le 09 mars 2023 à 06h13
2 min
Sciences et espace
Sciences
LLaMa (Large Language Model Meta AI), le modèle de langage annoncé par Facebook le 24 février et censé être réservé aux seuls chercheurs agréés, aux organisations gouvernementales et à certains membres de la société civile, a fuité sur 4chan, rapporte MotherBoard :
« C'est la première fois que le modèle d'IA propriétaire d'une grande entreprise technologique est divulgué publiquement. Jusqu'à ce jour, des entreprises comme Google, Microsoft et OpenAI avaient gardé leurs nouveaux modèles privés, accessibles uniquement via des interfaces grand public ou une API, apparemment pour contrôler les cas d'utilisation abusive. »
Meta avait annoncé vouloir le partager « avec les membres de la communauté de recherche pour nous aider à évaluer et à améliorer ces modèles », explique un porte-parole de l'entreprise :
« LLaMA a été partagé à des fins de recherche, conformément à la façon dont nous avons partagé les grands modèles de langage précédents. Bien que le modèle ne soit pas accessible à tous et que certains aient tenté de contourner le processus d'approbation, nous pensons que la stratégie de publication actuelle nous permet d'équilibrer responsabilité et ouverture. »
LLaMA a été entraîné à partir de plusieurs dizaines de milliards de données récupérées sur Wikipedia, des livres, des articles universitaires d'ArXiv, GitHub, Stack Exchange et d'autres sites.
Meta expliquait que « l'accès au modèle sera accordé au cas par cas aux chercheurs universitaires ; ceux affiliés à des organisations du gouvernement, de la société civile et du milieu universitaire ; et les laboratoires de recherche de l'industrie du monde entier ».
Or, relève Analytics India Mag, la personne responsable de la fuite aurait partagé son code d'identification unique dans le lien torrent qu'il a rendu public, offrant potentiellement la possibilité à Meta de l'identifier.
« Certains craignent que la technologie ne soit utilisée à des fins nuisibles ; d'autres disent qu'un meilleur accès améliorera la sécurité de l'IA », estiment les chercheurs interrogés par The Verge.
Le 09 mars 2023 à 06h13
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/03/2023 à 07h16
arf une image avec 6 lignes de clé en Base64, à mon avis ça ira plus vite côté Meta de rechercher les multiples connexions avec un seul identifiant, que d’essayer re-copier cette clé :)
Le 09/03/2023 à 23h59
Le 09/03/2023 à 08h22
Ce qui est con, c’est que derrière ça risque de décourager les boîtes de partager leurs travaux avec des tiers.
Mais après ça m’étonne, je m’attendrais à une sécurité supplémentaire comme un filtrage IP pour limiter l’accès à un seul endroit (j’ai déjà utilisé des systèmes qui nécessitaient que l’on soit connecté au réseau interne)
Le 09/03/2023 à 11h19
Cette technologie logicielle est bien trop dangereuse pour la laisser dans les mains de l’humanité.
Par contre les armes à feu, les mortiers, tout ça c’est bon. Pas de danger.
Le 09/03/2023 à 12h06
C’est pas les armes qui tuent, mais les personnes qui s’en servent.
Attends… 😐
Le 09/03/2023 à 13h00
On dit ça aussi des voitures ….
Mais dans les voitures à conduite automatique, qui est responsable de l’accident mortel ?
Le logiciel, ou l’humain propriétaire du véhicule ?
Le 09/03/2023 à 13h04
L’humain car même lorsque le pilote automatique est activé le conducteur doit rester attentif, concentré, et maître du véhicule.
Le 09/03/2023 à 13h13
Pas forcément, la conduite automatique de niveau 5 (pas encore autorisé sur route) prévoit de supprimer le volant dans les voitures.
Un exemple de conduite automatisé de niveau 5 : les métro automatiques de type VAL (sans conducteur dans la rame).
Le 09/03/2023 à 13h56
Comme tu le dis toi-même, pas encore autorisé sur nos routes les voitures de niveau 5. Donc ma réponse reste valable. Je ne faisais que répondre à :
En ce qui concerne les métros (qui n’étaient pas cités dans le premier commentaire), étant donné que l’engin est sur rail (entendu par là qu’il ne peut pas prendre de décision de trajectoire) et régulièrement en sous sol non accessible en dehors des plateformes prévues (quais des métros), les risques liés à un problème d’autopilote sont quand même fortement limités. Seul le fait de savoir si le véhicule doit avancer ou non est à prendre en considération par le pilote automatique.
Le 09/03/2023 à 17h50
Le constructeur.
Le 10/03/2023 à 08h13
Merci pour cette précision. :)
Le 09/03/2023 à 18h39
Ça ne peut évidement pas être le propriétaire du véhicule. A partir du moment où il a un véhicule homologué, entretenu et assuré correctement, il n’y a pas de raison qu’il soit en tort.
Le 09/03/2023 à 13h00
C’est le modèle de langage qui te crache dessus quand il n’est pas content ?
Le 09/03/2023 à 13h05
Le 09/03/2023 à 14h53