OpenAI s’associe aux géants numériques de la Silicon Valley pour peser contre un projet de loi sur l’intelligence artificielle actuellement discuté dans l’État de Californie.
Le texte prévoit que les systèmes d’IA qui coûtent plus de 100 millions de dollars à développer soient équipés de « standards de sécurité de bon sens ».
Un projet qui se traduirait en l’obligation, pour les entreprises concernées, d’implémenter des protocoles de lutte contre les « dommages critiques » que pourraient causer les machines, parmi lesquels des cyberattaques ou le développement d’armes de destruction massive.
Le texte prévoit aussi la possibilité d’« arrêter totalement » le fonctionnement d’un système, c’est-à-dire de lui construire un « kill switch ».
Aux côtés de Meta et d’Anthropic, OpenAI s’est joint aux efforts de lobbying contre le passage de la loi, le directeur de la stratégie de la start-up expliquant dans une lettre à destination des sénateurs californiens qu’un tel projet serait « mieux géré au niveau fédéral » que via un « patchwork de textes au niveau des États ».
En Europe, OpenAI avait aussi largement œuvré pour l’atténuation de l’AI Act.
Commentaires (12)
#1
#1.1
#1.2
#2
Je ne comprends pas vraiment le sens, l'essence de cette phrase. C'est une machine, on peut l'arrêter à tout moment, non ? (i.e. arrêter le processus, arrêter le système, couper l'alim, etc.)
Si on pouvait m'éclairer, merci.
#2.1
#2.2
#2.4
Mais dans les faits, vu qu'on parle de modèle hébergé et managé, c'est une coupure du endpoint API.
#2.6
D'autre part c'est pas parce que que tu coupes l'endpoint d'API que ça coupe l'exécution des serveurs ou de l'apprentissage. Je rappelle juste que la plupart des des IA ne sont plus passives mais on la possibilité d'agir / exécuter des actions, par exemple exécuter des requêtes HTTP.
Ce qui rend d'ailleurs la conception d'un kill swich fiable assez compliqué. Un kill switch logiciel étant probablement vulnérable à une attaque (pour le rendre innopérable), attaque que l'IA elle même pourrait effectuer (avec la base de connaissance de failles, de mots de passe/clés, technique de hacking, ...)
#2.3
#2.5
"We're doomed, John Connor!!!"
#3
#3.1
lescertains scientifiques.ça reste de l'opinion.
En l’occurrence, l'opinion du chercheur que tu cite, c'est qu'il est pour la régulation des IA mais uniquement la régulation des produits déployés et non la régulation de la recherche et développement.
Sachant que la loi concerne les systèmes d'IA qui ont couté plus de 100 millions de dollars, donc on parle pas de recherche universitaire non appliquée hein.
Et les système d'IA entretiennent volontairement une frontière floue entre la R&D et le déploiement.
Et considérer que la R&D expérimentale sur de l'IA déployé sur des fermes de serveurs avec des capacités de calcul phénoménale qui ont accés à internet n'est pas un risque, ça reste une opinion douteuse et pas un consensus scientifique.
Ensuite l'opinion d'OpenAI et d'autres personalités (scientifiques ou non) serait qu'il faut légiférer au niveau national et non fédéral. Ce qui est sans doute juste. Mais légiférer au niveau fédéral est probablement préférable que de ne pas légiférer du tout ...