OpenAI et les géants numériques militent contre le projet de loi californien sur l’IA
Le 22 août à 10h51
2 min
Droit
Droit
OpenAI s’associe aux géants numériques de la Silicon Valley pour peser contre un projet de loi sur l’intelligence artificielle actuellement discuté dans l’État de Californie.
Le texte prévoit que les systèmes d’IA qui coûtent plus de 100 millions de dollars à développer soient équipés de « standards de sécurité de bon sens ».
Un projet qui se traduirait en l’obligation, pour les entreprises concernées, d’implémenter des protocoles de lutte contre les « dommages critiques » que pourraient causer les machines, parmi lesquels des cyberattaques ou le développement d’armes de destruction massive.
Le texte prévoit aussi la possibilité d’« arrêter totalement » le fonctionnement d’un système, c’est-à-dire de lui construire un « kill switch ».
Aux côtés de Meta et d’Anthropic, OpenAI s’est joint aux efforts de lobbying contre le passage de la loi, le directeur de la stratégie de la start-up expliquant dans une lettre à destination des sénateurs californiens qu’un tel projet serait « mieux géré au niveau fédéral » que via un « patchwork de textes au niveau des États ».
En Europe, OpenAI avait aussi largement œuvré pour l’atténuation de l’AI Act.
Le 22 août à 10h51
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/08/2024 à 11h47
Le 22/08/2024 à 15h07
Le 26/08/2024 à 18h53
Le 22/08/2024 à 13h36
Je ne comprends pas vraiment le sens, l'essence de cette phrase. C'est une machine, on peut l'arrêter à tout moment, non ? (i.e. arrêter le processus, arrêter le système, couper l'alim, etc.)
Si on pouvait m'éclairer, merci.
Le 22/08/2024 à 14h08
Le 22/08/2024 à 15h13
Le 22/08/2024 à 16h02
Mais dans les faits, vu qu'on parle de modèle hébergé et managé, c'est une coupure du endpoint API.
Le 25/08/2024 à 14h32
D'autre part c'est pas parce que que tu coupes l'endpoint d'API que ça coupe l'exécution des serveurs ou de l'apprentissage. Je rappelle juste que la plupart des des IA ne sont plus passives mais on la possibilité d'agir / exécuter des actions, par exemple exécuter des requêtes HTTP.
Ce qui rend d'ailleurs la conception d'un kill swich fiable assez compliqué. Un kill switch logiciel étant probablement vulnérable à une attaque (pour le rendre innopérable), attaque que l'IA elle même pourrait effectuer (avec la base de connaissance de failles, de mots de passe/clés, technique de hacking, ...)
Le 22/08/2024 à 15h37
Le 22/08/2024 à 22h08
"We're doomed, John Connor!!!"
Le 25/08/2024 à 03h32
Le 25/08/2024 à 14h44
lescertains scientifiques.ça reste de l'opinion.
En l’occurrence, l'opinion du chercheur que tu cite, c'est qu'il est pour la régulation des IA mais uniquement la régulation des produits déployés et non la régulation de la recherche et développement.
Sachant que la loi concerne les systèmes d'IA qui ont couté plus de 100 millions de dollars, donc on parle pas de recherche universitaire non appliquée hein.
Et les système d'IA entretiennent volontairement une frontière floue entre la R&D et le déploiement.
Et considérer que la R&D expérimentale sur de l'IA déployé sur des fermes de serveurs avec des capacités de calcul phénoménale qui ont accés à internet n'est pas un risque, ça reste une opinion douteuse et pas un consensus scientifique.
Ensuite l'opinion d'OpenAI et d'autres personalités (scientifiques ou non) serait qu'il faut légiférer au niveau national et non fédéral. Ce qui est sans doute juste. Mais légiférer au niveau fédéral est probablement préférable que de ne pas légiférer du tout ...