Europe: les quatre domaines de l'approche européenne en IA

En bref

L’actualité normative européenne d’avril 2025 a été marqué en particulier au niveau communautaire par la communication de la Commission européenne sur l’"AI Continent Action Plan" qui souligne à la fois la priorité de faire de l’Union européenne un leader dans le domaine de l’IA, et de se doter des moyens nécessaires dans ce domaine pour maintenir son approche et ses valeurs.

En parallèle des initiatives communautaires, les organismes européens de normalisation ont poursuivi leurs initiatives en faveur de la normalisation de l’IA. Le CEN-CENELEC a lancé plusieurs ateliers, visant en particulier à normaliser les profils de formation dans le domaine de l’IA (voir Workshop ‘A.I. Role Profiles and Educational Profiles’), et à fournir aux utilisateurs industriels des solutions basées sur l’IA et centrées sur l’humain (voir Workshop “Methods for enhancing industrial human-robot collaboration and cooperation”). Par ailleurs, le CEN-CENELEC a lancé une consultation publique de son CWA portant sur la sécurisation des transactions (voir Trusted Data Transaction - Part 2: Trustworthiness requirements). Enfin, le CEN-CENELEC a présenté une nouvelle norme européenne visant à proposer une méthode d’évaluation sectorielle des risques de cybersécurité (voir A Risk-Based Approach to Sectoral Cybersecurity: Introducing EN 18037:2025).

De son côté, l’ETSI a notamment présenté les 13 principes de haut niveau visant à définir les exigences de base en matière de sécurité pour les modèles et les systèmes d’IA (voir ETSI TS 104 223 - Securing Artificial Intelligence (SAI): Baseline Cyber Security Requirements for AI Models and Systems).

La Commission européenne

Le 9 avril 2025, la Commission européenne a publié une communication intitulée “AI Continent Action Plan” ainsi qu’une annexe.

La Commission européenne veut faire de l’Union européenne “a leading AI continent”. À ce titre, l’Union européenne doit, selon la Commission européenne, “maintain its own distinctive approach to AI” dans quatre domaines:

  1. “a large single market with one single set of safety rules across the EU, including the recently adopted AI Act, ensuring AI is trustworthy and aligned with EU values”;
  2. “making the most of its high-quality research, and science, a substantial pool of scientists and skilled professionnals”;
  3. “a thriving startup and scaleup scene, undstrial knowhow and expertise”;
  4. “a solid foundation in world-class computational power with data spaces accessible to all”.

La Commission européenne identifie en particulier 5 domaines clefs où l’Union européenne doit accélérer et intensifier ses efforts pour parvenir à l’objectif visé:

  1. Développer la “computing infrastructure”, en renforçant “the network of AI Factories” et en établissant des “ressource-efficient Gigafactories”;
  2. Améliorer l’accès à de la “high-quality data” aux innovateurs en matière d’IA;
  3. Stimuler le “development of AI algorithms and leverage their adoption in the EU’s strategic sectors”;
  4. Renforcer la “strong AI talent base” européenne, et;
  5. Faciliter et simplifier la “compliance with the AI Act”.

La Commission européenne identifie plusieurs mesures afin de faciliter et simplifier la conformité avec l’AI Act. Afin de faciliter “a smooth and predictable application of the AI Act”, la Commission européenne annonce lancer en juillet 2025 un AI Act Service Desk au sein de l’EU AI Office, et dont l’objectif est d’être “a central information hub on the AI Act” afin d’offrir “an interactive platform where busnesses and other stakeholders, including public authorities, will be able to ask questions, get answers and have access to technical tools to help them apply the AI act, e.g. decision trees and other self-assessment tools”. À cet effet, la Commission européenne a lancé, le 16 avril 2025, un appel d’offres pour le lancement de l’AI Act Service Desk, se clôturant le 19 mai 2025.

La Commission européenne informe qu’elle va continuer à “provide guidance on the AI Act’s application in support of compliance”, en “preparing implementing delegated acts and guidelines”, en “steering co-regulatory instruments like a development of standards in support of the AI Act and the Code of Practice on general-purpose AI”, ainsi qu’en “set up action together with responsible organisations to accelerate” le développement des normes.

La Commission européenne lance, le même jour que cette communication, la consultation publique “Apply AI Strategy” jusqu’au 4 juin 2025. Cette consultation comprend “specific questions on the challenges in the AI Act implementation process’”, afin d’identifier les domaines où “regulatory uncertainty is hindering the development and adoption of AI”, et déterminer comment la Commission européenne et les États-Membres peuvent “support stakeholders better in the implementation of the AI Act”.

Les organismes européens de normalisation

CEN-CENELEC

Le 3 avril 2025, le CEN annonce le lancement le 23 mai 2025 du Workshop ‘A.I. Role Profiles and Educational Profiles’, en appelant les parties prenantes intéressées à soumettre leurs commentaires sur le projet de programme du workshop, CEN Workshop A.I. Role Profiles and Educational Profiles avant le 16 mai 2025.

Ce workshop s’inscrit dans le cadre du Règlement (UE) 2024/1689 ainsi que du programme de l’Artificial Intelligence Skills Alliance, et il vise à développer un CWA qui “will present a set of role profiles and educational profiles in the area of Artificial Intelligence”.

Le 11 avril 2025, le CEN annonce l’ouverture de la phase de consultation publique du CWA portant sur Trusted Data Transaction - Part 2: Trustworthiness requirements. Cette annonce est accompagnée du projet de CWA, dont l’objet consiste à définir “requirements to establish trust in data transactions”, ainsi que “foundational principles for trusted data transactions, general trustworthiness requirements that apply to all phases of a transaction and specific trustworthiness requirements for each individual phase”. La phase de consultation publique est ouverte jusqu’au 11 mai 2025.

Le 15 avril 2025, le CEN annonce le lancement le 27 mai 2025 du Workshop “Methods for enhancing industrial human-robot collaboration and cooperation” et il demande aux parties prenantes intéressées d’envoyer leurs commentaires sur le projet de programme joint,CEN Workshop “Methods for enhancing industrial human-robot collaboration and cooperation”, sans date limite précisée.

Le programme du workshop s’inscrit dans la suite des objectifs du EU Research project “AI-PRISM”, et il cherche à “provide industrial users with human-centred artificial intelligence(AI)-based solutions to create more efficient, resilient, digital, sustainable and high-quality European manufacturing industry”.

En particulier, ce workshop propose de créer deux CEN Workshop Agreements (CWA) tenant à:

  1. “Methodology for human-centered design of industrial human-robot applications”;
  2. “Methodology for the identification of human skills requirements for work in industrial human-robot collaboration”.

Le 16 avril 2025, le CEN-CENELEC présente la nouvelle norme européenne A Risk-Based Approach to Sectoral Cybersecurity: Introducing EN 18037:2025, développée par le JTC 13 “Cybersecurity and Data Protection”, dont la publication est annoncée pour le 30 septembre 2025. La norme EN 18037:2025 introduit “a sectoral cybersecurity assessment methodology that supports standardized risk assessments and harmonized risk ratings across multiple stakeholder organizations”. Cette norme vise aussi à faciliter “the identification of security and assurance level requirements for ICT products, processes, and services according to their inteded role within a given sectoral system”.

Cette norme développe en particulier les 5 points suivants:

  1. “Business Process Contextualization”
  2. “Asset and System Mapping”
  3. “Cyber Threat Intelligence (CTI)”
  4. “Risk Assessment”
  5. “Reference Levels”

ETSI

Le 23 avril 2025, l’ETSI publie la spécification technique ETSI TS 104 223 - Securing Artificial Intelligence (SAI): Baseline Cyber Security Requirements for AI Models and Systems, développée par l’ETSI Technical Committee (TC) on Securing Aritifical Intelligence (SAI).

Ce document “defines baseline security requirements for AI models and systems”, incluant “deep neural networks, such as generative AI”. La spécification établit 13 principes de haut niveau répartis dans 5 phases:

  1. “Secure Design”: “Principle 1: Raise awareness of AI security threats and risks”; “Principle 2: Design the AI system for security as well as functionality and performance”; “Principle 3: Evaluate the threats and manage the risks to the AI system”; “Principle 4: Enable human responsibility for AI systems”;

  2. “Secure Development”: “Principle 5: Identify, track and protect the assets”; “Principle 6: Secure the infrastructure”; “Principle 7: Secure the supply chain”; “Principle 8: Document data, models and prompts”; “Principle 9: Conduct appropriate testing and evaluation”;

  3. “Secure Deployment”: “Principle 10: Communication and processes associated with End-users and Affected Entities”;

  4. “Secure Maintenance”: “Principle 11: Maintain regular security updates, patches and mitigations”; “Principle 12: Monitor the system’s behaviour “;

  5. “Secure End of Life”: “Principle 13: Ensure proper data and model disposal”.