États-Unis: le changement de cap
En bref
Les trois premiers mois de la nouvelle administration américaine auront été marqués par la prise de deux executive orders (EO) révoquant certaines mesures phares du précédent gouvernement, et s’engageant résolument dans la voie de la dérégulation de l’encadrement fédéral de l’IA, tout en promouvant un changement de cap des orientations politiques désormais essentiellement axées sur la défense du leadership global américain en IA.
En tant qu’agence du département du Commerce des États-Unis, le National Institute of Standards and Technology (NIST) est un acteur clef au sein de la politique fédérale en coordonnant les travaux de productiton des normes de l’IA. En plus de la parution de ses nouveaux rapports sur l’IA, Le NIST a mis en place un projet visant à accélérer le processus de normalisation.
Janvier 2025
Le 20 janvier 2025
, au premier jour de son entrée en fonction, le président américain, Donald Trump, prend l’EO14148 intitulé « Initial Rescissions of Harmful Executive Orders and Actions » révoquant notamment l’EO14110 de l’administration précédente en date du 30 octobre 2023
et portant sur « Safe, Secure, and Trustworthy Develpment and Use of Artificial Intelligence ». Ainsi, le président américain souhaite:
…to restore common sense to Federal Government and unleash the potential of the American citizen.
Le 23 janvier 2025
, le président américain prend l’EO14179 intitulé « Removing Barriers to American Leadership in Artificial Intelligence » afin de maintenir le leadership américain en développant des:
…AI systems that are free from ideological bias or engineered social agendas.
La Maison-Blanche fixe les objectifs de la politique américaine en matière d’IA qui doit:
…to sustain and enhance America’s global AI dominance in order to promote human flourishing, economic competitiveness, and national security.
Le président américain demande à ce que l’administration américaine développe et soumette au président dans un délai de 180 jours, un Action Plan afin de mettre en œuvre la nouvelle politique américaine mentionnée à la Section 2 (cf. supra). Par ailleurs, le président américain ordonne à l’administration américaine de cesser d’appliquer les actes ayant été pris sur le fondement de l’EO14110 du 30 octobre 2023
, et de revenir en particulier sur l’OMB Memoranda M-24-10 du 28 mars 2024
portant sur “Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence”, ainsi que l’OMB Memoranda M-24-18 du 24 septembre 2024
intitulé “Advancing the Responsible Acquisition of Artificial Intelligence in Government”.
Février 2025
Le 6 février 2025
, le Networking and Information Technology Research and Development (NITRD) National Coordination Office (NCO), sous l’autorité de l’Office of Science and Technology Policy (OSTP) lance une Request for Information (RFI) afin d’initier des consultations de toutes les parties intéressées au développement de l’Action Plan pour déterminer les politiques prioritaires dans ce secteur. Les parties sont invitées à donner leurs commentaires sur une liste non exhaustive de sujets en lien avec l’IA portant notamment sur : le hardware et les puces, les datacenters, la consommation et l’efficacité énergétique, le développement de modèles, le développement de logiciels libres, l’application et l’utilisation de l’IA, l’explicabilité et l’assurance des résultats des modèles d’IA, la cybersécurité, la confidentialité des données et la garantie de la sécurité tout au long du cycle de déploiement de systèmes d’IA, les risques, la réglementation et la gouvernance, les normes techniques et de sécurité, la sécurité et la défense nationales, la recherche et le développement, l’éduction et la main-d’œuvre, l’innovation et la concurrence, la propriété intellectuelle, les marchés publics, la coopération internationale ainsi que les contrôles à l’exportation. Les consultations se sont achevées le 15 mars 2025
.
Le 11 février 2025
, le Vice-Président américain, J.D. Vance, participe à l’Artificial Intelligence Action Summit à Paris, où il a fait une déclaration portant sur la position de l’administration américaine sur l’IA qui:
… believes that AI will have countless, revolutionary applications in economic innovation, job creation, national security, health care, free expression, and beyond.
La position américaine tient en quatre points :
- assurer que « American technology continues to be the gold standard worldwide » ;
- encourager « pogramme growth AI policies » plutôt que « excessive regulation of the AI sector » ;
- assurer que l’IA demeure « free from ideological bias » et qu’elle ne devienne pas « tool for authoritarian censorship », et enfin ;
- maintenir « a pro-worker growth path for AI so it can be a potent tool for job creation ».
Le Vice-président américain a par ailleurs précisé que son administration prépare un Action Plan qui
avoids an overly precautionary regulatory regime while ensuring that all Americans benefit from the technology and its transformative potential.
Il dénonce par ailleurs la réglementation européenne qui force les entreprises américaines à « to deal with onerous international rules ». Enfin, il souligne que le futur de l’IA ne sera pas « to be won by hand-wringing about safety », mais plutôt en construisant « from reliable power plants to the manufacturing facilities that can produce the chips of the future ». Avec le Royaume-Uni, les États-Unis n’ont, à la fin du sommet, pas signé la Déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète.
Le 14 février 2025
, le NIST a lancé, via le National Cybersecurity Center of Excellence (NCCoE), le « Cyber AI Profile » qui vise à élaborer des directives de gestion des risques pour les organisations ayant recours à l’IA et tenant à : « Cybersecurity of AI Systems, AI-enabled Cyber Attacks, and AI-enabled Cyber Defense ». Le NIST lance alors une consultation des parties prenantes se clôturant le 14 mars 2025
, et dont les résultats seront discutés à l’occasion du « Cyber AI Profile Workshop » se déroulant le 3 avril 2025
. Dans son appel à commentaire, intitulé « Cybersecurity and AI Workshop Concept Paper », le NIST propose notamment de fonder les travaux du « Cyber AI Profile » sur le NIST Cybersecurity Framework (CSF) 2.0 paru en février 2024
, ainsi que le NIST AI Risk Management Framework (AI RMF) publié en janvier 2023
. Le NIST souhaite par ailleurs obtenir l’avis des parties prenantes sur douze questions tenant au « Cyber AI Profile », et en particulier :
- le champ d’application des futures lignes directrices ;
- les risques cybersécuritaires devant être pris en compte ;
- les liens attendus entre la cybersécurité et d’autres enjeux (confidentialité notamment) ;
- les liens à réaliser avec les initiatives existantes, et enfin ;
- d’autres éléments utiles à tenir compte dans l’élaboration de ces directives.
Mars 2025
Le 24 mars 2025
, le NIST a publié un rapport intitulé « Adversarial Machine Learning : A Taxonomy and Terminilogy of Attacks and Mitigations » (NIST AI 100-2e2025) proposant des solutions afin d’identifier, de traiter et de gérer les risques associés à l’apprentissage automatique antagoniste (« adversarial machine learning », ou « AML »).
Le 25 mars 2025
, le NIST annonce la création d’une nouvelle procédure d’élaboration des normes portant sur l’IA nommée « « Zero Drafts » Pilot Project ». Les objectifs affichés sont d’accélérer le processus de développement et d’élaboration du consensus autour des normes d’IA, et d’obtenir l’expertise et les perspectives les plus larges dans la production de ces normes. Concrètement, le NIST souhaite développer des projets de normes avant de les proposer aux organismes chargés de la normalisation formelle.
Le NIST a débuté le processus par une phase de consultation des parties prenantes sur une liste de quatre thèmes à hiérarchiser et à définir, portant sur :
- « Documentation about system and data characteristics for transparency among AI actors » ;
- « Methods and metrics for AI testing, evaluation, verification, and validation (TEVV)» ;
- « Maps of concepts and terminology regarding AI system designs, architectures, processes, and actors» ;
- « Technical measures for reducing risks posed by synthetic content ».
Aucune date limite n’a été annoncée pour la réception des suggestions des parties prenantes.