Connexion Premium

La Californie encadre désormais la sécurité de l’IA

Embryon de législation fédérale ?

La Californie encadre désormais la sécurité de l’IA

Le gouverneur de Californie a signé le 29 septembre le décret promulguant la nouvelle loi de l’État sur l’intelligence artificielle et son encadrement. Aux États-Unis, c’est la première législation de ce type. Ce texte, à la genèse complexe, risque de se heurter à la Maison-Blanche, ouvertement hostile tant au gouverneur qu'aux législations multiples sur l’IA.

Le 02 octobre 2025 à 11h50

Gavin Newsom a promulgué, ce lundi, la très attendue législation visant à encadrer l’IA en Californie. Nommée Transparency in Frontier Artificial Intelligence Act, ou TFAI Act, elle pose des exigences pour les grandes entreprises impliquées dans le développement des intelligences artificielles.

La loi s’applique à toute entreprise dont le chiffre d’affaires est d’au moins 500 millions de dollars par an. Dans le cas des sociétés comme Meta, Microsoft, Google ou même OpenAI, le pallier est largement franchi, puisque les chiffres d’affaires correspondants se chiffrent en milliards de dollars. Elles tombent donc sous le coup de la nouvelle loi et vont devoir s’astreindre à divers exercices à compter de l’entrée en application, fixée au 1er janvier 2026.

De nouvelles responsabilités

Sans chambouler complétement le paysage de l’IA, la loi TFAI impose une série de responsabilités aux entreprises concernées, dont la plupart ont trait à la transparence.

D’abord, le texte californien se concentre sur les modèles de frontière, donc ceux dits « de pointe ». Au-delà du seuil du chiffres d’affaires, le texte s’applique automatiquement à tout modèle de fondation dont l’entrainement a nécessité une puissance de calcul de 10^26 FLOPS, incluant toutes les opérations nécessaires, dont l’ajustement fin et l’apprentissage par renforcement. Il faut encore que les entreprises jouent le jeu et déclarent ce chiffre.

Il reste 79% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (6)

votre avatar
Le sénateur s’était entouré d’une équipe comprenant plusieurs sommités du secteur, dont
- la docteure Fei-Fei Li (codirectrice de l’Institut de Stanford pour l’intelligence artificielle),
Femme + Stanford: Woke

- le docteur Mariano-Florentino Cuéllar (président de la Fondation Carnegie pour la paix internationale)
La paix internationale ? Woke

- la docteure Jennifer Tour Chayes (doyenne du College of Computing, Data Science, and Society de l’Université de Berkeley).
Femme + Berkeley: Woke

Conclusion: le POTUS envoie la 1ere division blindée pour ramener l'ordre en Californie.

Non mais...
votre avatar
Plus sérieusement le TFAI Act est quand même très très léger en termes de réglementations.
votre avatar
Je ne pense pas que ce soit "1026" (qui est certes presque, à deux près, un nombre rond :ouioui:), mais 10^26, ce qui est légèrement plus...
:cap:
votre avatar
Le document en lien en début d'article dit bien cela :
Frontier model” means a foundation model that was trained using a quantity of computing power greater than 10^26 integer or floating-point operations.
Je pense à un problème de saisie ou de l'outil d'édition.
Il ya le même problème pour les 10^25 de l'AI Act.

Je signale l'erreur par l'outil à la rédaction.
votre avatar
:inpactitude:
votre avatar
La loi californienne prévoit une amende d’un million de dollars par violation
La réaction des GAFAM : :mdr2:

La Californie encadre désormais la sécurité de l’IA

  • De nouvelles responsabilités

  • Une version très allégée du précédent projet

  • La Californie désormais fer de lance de l’encadrement ?

Fermer