Trump révoque le décret de Biden sur les risques de l’intelligence artificielle
Le 21 janvier à 15h42
1 min
Droit
Droit
Parmi les multiples décrets pris au premier jour de son second mandat, Donald Trump a révoqué celui de Joe Biden pour réduire les risques posés par l’intelligence artificielle.

Signé en 2023, ce texte obligeait les développeurs de systèmes d’IA posant des risques à la sécurité nationale des États-Unis, la santé publique ou l’économie de partager les résultats de leurs tests de sécurité avec le gouvernement avant d’être mis sur le marché.
Il obligeait par ailleurs ses agences à créer des standards pour ces audits, dans lesquels les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité seraient pris en compte, rappelle Reuters.
En 2024, le Parti républicain appelait au rejet de ce texte, qu’il considérait comme un frein à l’innovation dans le domaine de l’intelligence artificielle.
Le 21 janvier à 15h42
Commentaires (15)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 21/01/2025 à 16h21
Le 21/01/2025 à 16h35
Modifié le 21/01/2025 à 16h36
N'empêche que ça me fait penser à la différence de mentalité entre SpaceX (j'y vais et si ça pète, tant pis) et Ariane (tout doit être PAR-FAIT). ^^'
Modifié le 21/01/2025 à 16h52
Le 22/01/2025 à 13h16
Le 21/01/2025 à 17h29
Le 22/01/2025 à 13h21
Non, de mon côté, je penses plutôt à un ou des méga-procès qui pourraient rendre responsables les entreprises d'IA de tout ce que fait l'IA, par exemple.
...Même si, au vu de l'état de quasi mort cérébrale de la démocratie et de la justice américaine, c'est pas gagné que ce type de scénario se réalise chez eux. Par contre, dans le reste du monde...
Modifié le 21/01/2025 à 16h41
Quand on lit les guides d'évaluation des risques lié l'IA (publié par le nist), on se rend compte qu'il n'y a rien de vraiment "spécifique" à l'IA. Ce que ces guides recommandent c'est une évaluation classique des risques dans un système automatisé: utilisation incorrecte (misuse), erreur d'utilisation (use error), sécurité/intégrité des données, etc.
Ce qui n'a rien d'étonnant en soi puisque la définition de l'IA utilisée (15 USC 9401) n'adresse pas la "nature" de l'IA (comment ca marche) mais son comportement (ce que ca fait).
Artificial Intelligence
The term "artificial intelligence" means a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations or decisions influencing real or virtual environments. Artificial intelligence systems use machine and human-based inputs to-
(A) perceive real and virtual environments;
(B) abstract such perceptions into models through analysis in an automated manner; and
(C) use model inference to formulate options for information or action.
https://uscode.house.gov/view.xhtml?req=(title:15%20section:9401%20edition:prelim)
Le 21/01/2025 à 18h25
C'est un peu avec les propos au dessus, Tant que la loi est pas bonne on ne va pas légiférer...
Entre temps c'est open bar et aucun statut pour réguler les actions entreprises en matière d'IA.
Je concède bien qu'en l'état la perte est pas grosse mais le leadership étant ce qu'il est, on est en bonne voie de subir toutes les conséquences de merde au global. Ça va être joyeux comme on s'y attendait
Le 21/01/2025 à 20h38
Rappelons nous quand la cryptographie en France nécessitait l'accord du ministère de l'intérieur. Etait-ce une si bonne idée ?
Le 22/01/2025 à 09h16
Il est probable qu'on voyait dans la gestion des clefs de chiffrement un interet stratégique et donc un atout à le laisser en gestion au ministère de l'intérieur. Je ne sais... il semble aujourd'hui que l'on ne soit pas si agnostique à l'usage du chiffrement en tout cas.
Mais je peux admettre que mes propres à priori, sur les besoins de régulation de l'IA générative, ne pourraient être que balayés par le jugement de l'Histoire.
Apres tout je n'en utilise pas moi même. Toujours est-il que je trouve la liberté prise par les entreprises, sur le scraping de données d'entrainement, quand l'argumentaire sur les droits d'auteurs tentaient de prohiber le même comportement pour la population générale, un peu trop dur à avaler. Ceci et d'autres aspects.
Cependent, je préférerai malgré tout m'être trompé sur mes inquiétudes et avoir eu tort que l'inverse et de faire les frais du " qui aurait pu le prévoir"...
Le 23/01/2025 à 19h52
Paragraphe 1.1, 3 petites pages. En pratique Windows NT4 avait un Service Pack spécial France, avec un système de chiffrement basé sur une clé 40 bits au lieu de 128 ("Windows NT 4.0 a connu 6 Service Packs successifs depuis sa sortie. Le Service Pack 6 a apporté le support du chiffrement 128-bits au système ; du fait de restrictions à l'exportation, la version française du Service Pack est limitée à 40-bits". Source :Wikipedia). A l'époque l'utilisation de clés de chiffrement plus longues que celles que les services pouvaient casser étaient interdites.
Le 23/01/2025 à 23h05
Apres clairement on est pas à l'abris de nouvelle bêtises mais l'élan et la tentation de tout déréguler et d'y aller en mode osef "les américains y vont on suit"
On peut toujours aller plus vite dans la connerie
Mais eux ont les tunes â brûler ici pas vraiment.
Merci pour le partage
Le 21/01/2025 à 20h57
On a les dirigeants qu'on mérite.
Le 23/01/2025 à 23h08
Je refuse â présent de me rabaisser à cet adage, ils ne méritent pas la représentation nationale...