Frontier Model Forum, nouveau lobby pour les fabricants d’IA générative

Frontier Model Forum, nouveau lobby pour les fabricants d’IA générative

Frontier Model Forum, nouveau lobby pour les fabricants d’IA générative

Google, Microsoft, OpenAI et Anthropic (qui a créé Claude, un chatbot concurrent de ChatGPT) ont annoncé le 26 juillet créer le Frontier Model Forum.

La structure définit les frontier models, ou « modèles d’avant-garde », comme des « modèles d’apprentissage machine de grande échelle dont les capacités dépassent celle des modèles existants les plus avancés, et qui peuvent réaliser une grande variété de tâches ». Le terme était déjà apparu dans une précédente publication d’OpenAI, qui s’inquiétait alors de leur capacité à « poser des risques graves pour la sécurité publique ».

Le forum doit permettre à leurs constructeurs de réfléchir ensemble aux manières de « promouvoir le développement responsable et sécurisé » de ces technologies. En pratique, il s’agit aussi bien de « minimiser les risques et faciliter les évaluations indépendantes et standardisées des capacités et de la sécurité » des modèles que d’ « identifier les bonnes pratiques nécessaires à un développement responsable », « collaborer avec les régulateurs, les universitaires, la société et les entreprises » sur les notions de confiance et de sécurité et « œuvrer au développement d’application qui aideront à répondre aux grands enjeux de société » que représente, par exemple, la lutte contre le dérèglement climatique.

La création du Frontier Model Forum fait aussi suite à la promesse formulée par plusieurs acteurs de l’IA auprès de la Maison-Blanche de s’autoréguler. La semaine passée, Microsoft, Google, Anthropic, mais aussi Amazon et Meta ont notamment promis de marquer les contenus générés par IA, pour aider à identifier les fausses photos et vidéos.

En 2016, Google et Microsoft avaient déjà fondé The Partnership on AI, une structure encore active à laquelle appartient aussi Apple, contrairement au Frontier Model Forum.

La plupart de ces acteurs sont connus pour déployer d’importants moyens pour tenter d’influencer les régulations à leur encontre.

Commentaires (3)



La création du Frontier Model Forum fait aussi suite à la promesse formulée par plusieurs acteurs de l’IA auprès de la Maison-Blanche de s’autoréguler. La semaine passée, Microsoft, Google, Anthropic, mais aussi Amazon et Meta ont notamment promis de marquer les contenus générés par IA, pour aider à identifier les fausses photos et vidéos.




Que dit on généralement des promesses ? …


Parce qu’il y a quelqu’un ici qui pense encore que l’industrie est capable de s’autoréguler si cela conduit à ne pas augmenter ses bénéfices ?
La seule éthique que ces gens là connaissent c’est quand la punition dépasse les bénéfices espérés.
Il faut mettre en place des lois restrictives et les sanctionner impitoyablement à chaque dépassement et faire en sorte que ces sanctions soient systématiquement supérieures de beaucoup aux bénéfices espérés.


Je rejoins mes VDD, en précisant que, AMHA ces groupements et autres lobbies ne servent qu’à une chose : diminuer au maximum leurs responsabilités en cas de procès.



Les grandes firmes (et d’autres moins imposantes) qui tournoient autour du concept “AI” sont littéralement obsédés par ça : réduire à zéro l’insécurité juridique qui pèserait sur leurs p’tites têtes, en préparant une défense, des éléments de langage communs et des arguments massue face aux journalistes qui ne seraient pas persuadés à 100% de leur absolue pureté d’intention…
:win:
:chinois: Le Sage dit : “Lorsque le Titanic coule, prépare-toi à jouer du pipeau” :chant: :byebye:


Fermer