Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l'IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d'urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d'alertes.
Le projet de « loi sur l'innovation sûre et sécurisée pour les modèles d'intelligence artificielle d'avant-garde » (ou SB 1047), a fait l'objet d'intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l'État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.
SB 1047 prévoyait d'imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l'État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n'était pas aussi complet que l'AI Act européen, mais posait quelques jalons de régulation.
Pour une régulation, mais pas celle-là
Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d'IA générative :
« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu'un système d'IA est déployé dans des environnements à haut risque, qu'il implique une prise de décision critique ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.
Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public ».
« Nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d'une solution qui n'est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l'IA. En fin de compte, tout cadre visant à réglementer efficacement l'IA doit suivre l'évolution de la technologie elle-même ».
Les directions de startups de la Silicon Valley contre la loi
Alors qu'Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s'était positionnée contre, à l'instar d'OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu'un patchwork de lois étatiques.
Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l'entreprise, a d'ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.
Du côté d'Anthropic, après avoir critiqué la loi, l'entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l'emportent probablement sur ses coûts. Toutefois, nous n'en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».
L'ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s'était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l'IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d'autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu'utile à cette fin ».
Quelques têtes d'ingénieurs et de chercheurs qui dépassent
Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :
« Nous pensons que les modèles d'IA les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l'IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».
Hollywood pour une régulation, pour le bien de l'humanité
Du côté de Hollywood, 125 « grands noms » du milieu s'étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l'IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».
Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l'évaluation des menaces potentielles posées par l'utilisation de l'IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».
Commentaires (1)
#1