Règlement IA : acteurs, obligations et dates clés

Le règlement européen sur l’IA (AI Act)

Premier cadre juridique contraignant et harmonisé au monde dédié à l’intelligence artificielle 

Règlement européen directement
applicable dans tous les États membres

Approche fondée sur les risques (risk
based approach)

Objectif : concilier innovation, sécurité,
droits fondamentaux et confiance

Dates clés

Avril 2021

Proposition du règlement IA par la Commission européenne.

Décembre 2023

Adoption politique définitive du texte.

2024–2025

Phase transitoire : préparation, lignes directrices, autorités.

2 août 2026

Application pleine et obligatoire dans l’UE (y compris France).

Acteurs concernés

Le règlement s’applique aussi aux acteurs hors UE si l’IA produit des effets dans l’Union.

Fournisseurs

Développeurs, éditeurs et concepteurs de systèmes d’IA

Déployeurs / Utilisateurs

Entreprises et administrations qui utilisent l’IA

Importateurs & Distributeurs

Responsables de la mise sur le marché des systèmes d’IA

Autorités de contrôle

Autorités nationales et européennes chargées de la supervision

Obligations — Fournisseurs

Concevoir conformement aux exigences du règlement

Réalisations d’évaluations de conformité avant mise sur le marché

Fournir documentation technique et
traçabilité

Classer le système
selon le niveau de risque

Surveillance après
commercialisation

Obligations — Déployeurs / Utilisateurs

Utiliser l’IA conformément à sa destination
prévue.
Mettre en place une supervision humaine.
Gérer les risques et incidents liés aux
systèmes.
Informer les utilisateurs lorsque requis.

Obligations — Importateurs & Distributeurs

Vérifier la conformité des systèmes mis sur le marché
Coopérer avec les autorités lors des contrôles*

Concernant les particuliers

Le règlement IA ne s’applique pas aux personnes
physiques utilisant un système d’IA à des fins
strictement personnelles et non professionnelles.

Le particulier peut être qualifié de déployeur, dès lors
que l’usage dépasse la sphère privée.

ISO/IEC 42001 – Système de management de
l’IA

La norme ISO/IEC 42001 constitue un cadre structurant de gouvernance des systèmes d’IA, facilitant la gestion des risques, la documentation et l’amélioration continue

Elle représente un point de départ méthodologique
pertinent, mais ne constitue pas en soi une preuve de
conformité juridique au règlement IA

Ce qui change à partir du 2 août 2026

Cartographie

Obligation de recenser et de classifier par
niveaude risque les systèmes d’IA utilisés 

Conformité intégrée

Intégrer l’IA selon les exigences du
RGPD, de la cybersécurité et de la
gouvernancedes données

Responsabilité

Accroissement des responsabilités des entreprises utilisatrices

Transparence

Exigences renforcées sur l’information
et la documentation pour les ia à haut
risque (principalement établie par le
fournisseur avant la mise sur le marché
ou la mise en service)

Sanction

Sanctions financières significatives allant jusqu’à 7% du chiffre d’affaires mondial ou 35 millions d’euros en cas de non conformité

Approche par les risques — Quatre niveaux

Le diagramme montre la hiérarchie des risques et les implications principales pour chaque niveau

Details par niveau de risque

Inacceptable

Manipulation comportementale (une IA qui analyse tes émotions et adapte les messages pour te pousser à acheter quelque chose sans que tu t’en rendes compte)

Exploitation de vulnérabilités,
→ interdits.

Reconnaissance biométrique de masse
(surveillance permanente de foules sans raison légale spécifique)

Haut risque

Recrutement (une IA qui trie les CV ou classe les candidats pour un poste)

Santé (une IA qui aide à poser un diagnostic médical)

Education (un système qui classe les élèves selon leurs performances)

Justice (une IA qui aide à estimer le risque de récidive)

Services essentiels
→ autorisés sous conditions strictes (gouvernance des données,
supervision humaine, documentation)

Risque limité

Chatbots

Générateurs de contenu
→ obligation principale de transparence (informer l’utilisateur)

Risque minimal

IA bureautique, jeux

Filtres, recommandations simples
→ utilisation libre, sans obligations spécifiques

Impact pour les entreprises & prochaines étapes

Une nouvelle couche de conformité à anticiper dès maintenant
Une convergence RGPD – IA –cybersécurité – gouvernance des risques

Un rôle clé des juristes, DPO et responsables conformité
Une montée en puissance des audits et contrôles IA

À partir du 2 août 2027

Les obligations applicables aux systèmes d’IA à haut
risque sont pleinement déployées pour les systèmes
pertinents de l’article 6 §1 et de l’annexe III

Date butoir pour que les fournisseurs de modèles
d’IA à usage général (GPAI) déjà sur le marché avant
le 2 août 2025 soient pleinement conformes aux
exigences de la loi AI.

Achèvement du déploiement progressif du règlement, avec une application totale prévue à cette date, hors quelques systèmes informatiques publics de très grande ampleur qui bénéficient d’un
délai plus long notamment :
Système d’information Schengen (SIS), Système d’information sur les visas.
Les systèmes nationaux de santé numérique qui centralisent les données de la population.

Besoin d'aide ?