Calendrier du Reglement sur l'IA de l'UE : Dates cles de 2024 a 2027
Calendrier complet des etapes d'application du Reglement sur l'IA de l'UE -- de l'entree en vigueur en aout 2024 a la pleine conformite pour les systemes a haut risque en aout 2027. Sachez exactement quand chaque exigence s'applique.
Le Reglement sur l'IA de l'UE (Reglement 2024/1689) ne s'applique pas d'un seul coup. L'Union europeenne a concu un calendrier d'application progressive qui laisse aux organisations le temps de se preparer a des exigences de plus en plus strictes. Comprendre ce calendrier est essentiel pour prioriser les efforts de conformite et allouer les ressources de maniere efficace.
Cet article fournit une ventilation complete, date par date, de chaque etape majeure d'application, de l'entree en vigueur du reglement jusqu'a son application complete.
Plusieurs echeances cles sont deja passees. Si votre organisation n'a pas encore entame ses travaux de conformite, il est essentiel de comprendre quelles obligations sont deja en vigueur et lesquelles approchent.
Le calendrier complet d'application
Phase 1 : Entree en vigueur et preparation (aout 2024 - janvier 2025)
La periode entre le 1er aout 2024 et le 2 fevrier 2025 a servi de fenetre de preparation initiale. Bien qu'aucune obligation substantielle ne soit encore applicable durant cette phase, plusieurs processus importants ont debute.
Mise en place des organes de gouvernance
La Commission europeenne a entame le processus d'etablissement du Bureau de l'IA, qui est rattache a la Direction generale des reseaux de communication, du contenu et des technologies de la Commission (DG CONNECT). Le Bureau de l'IA est charge de superviser les modeles d'IA a usage general et de soutenir l'application coherente du reglement dans les Etats membres.
Obligation de culture numerique en matiere d'IA
L'article 4 du Reglement sur l'IA exige des fournisseurs et des deployers qu'ils veillent a ce que leur personnel et les autres personnes chargees de l'exploitation et de l'utilisation des systemes d'IA possedent un niveau suffisant de culture en matiere d'IA. Bien que cette obligation s'applique formellement a compter du 2 aout 2025, les organisations etaient encouragees a lancer des programmes de formation durant cette phase preparatoire.
La culture en matiere d'IA au titre de l'article 4 n'est pas une formation ponctuelle. Elle necessite une education continue tenant compte des connaissances techniques, de l'experience, de la formation et du contexte dans lequel les systemes d'IA sont utilises. Il s'agit d'une exigence proportionnee -- des utilisations plus complexes ou a plus haut risque necessitent une culture plus approfondie.
Phase 2 : Pratiques interdites (fevrier 2025)
La premiere date d'application substantielle etait le 2 fevrier 2025, date a laquelle les interdictions de l'article 5 sont devenues applicables. Il s'agissait de l'echeance la plus urgente car les infractions sont assorties des sanctions les plus elevees.
Ce qui a ete interdit
A compter du 2 fevrier 2025, les pratiques d'IA suivantes sont interdites :
Techniques subliminales, manipulatrices et trompeuses (article 5, paragraphe 1, point a)) : Les systemes d'IA qui deploient des techniques operant en dessous du seuil de conscience, ou des techniques intentionnellement manipulatrices ou trompeuses, dans le but ou avec l'effet de fausser de maniere substantielle le comportement et de causer un prejudice significatif.
Exploitation des vulnerabilites (article 5, paragraphe 1, point b)) : Les systemes d'IA qui exploitent les vulnerabilites des individus en raison de leur age, de leur handicap ou de leur situation sociale ou economique specifique, pour fausser de maniere substantielle leur comportement et causer un prejudice significatif.
Notation sociale (article 5, paragraphe 1, point c)) : Les systemes d'IA utilises par les autorites publiques ou en leur nom pour evaluer ou classer des personnes physiques sur la base de leur comportement social ou de leurs caracteristiques personnelles, lorsque le score social qui en resulte conduit a un traitement prejudiciable injustifie ou disproportionne.
Evaluation individuelle du risque de commission d'infractions penales (article 5, paragraphe 1, point d)) : Les systemes d'IA qui evaluent le risque que des personnes physiques commettent des infractions penales sur la seule base du profilage ou de l'evaluation de traits de personnalite, sauf lorsqu'ils sont utilises pour etayer des evaluations humaines fondees sur des faits objectifs et verifiables directement lies a une activite criminelle.
Extraction non ciblee d'images faciales pour les bases de donnees de reconnaissance faciale (article 5, paragraphe 1, point e)) : Les systemes d'IA qui creent ou elargissent des bases de donnees de reconnaissance faciale par l'extraction non ciblee d'images faciales a partir d'internet ou de la videosurveillance.
Reconnaissance des emotions sur le lieu de travail et dans l'education (article 5, paragraphe 1, point f)) : Les systemes d'IA qui inferent les emotions sur le lieu de travail et dans les etablissements d'enseignement, sauf lorsque le systeme d'IA est destine a etre utilise a des fins medicales ou de securite.
Categorisation biometrique pour les attributs sensibles (article 5, paragraphe 1, point g)) : Les systemes d'IA qui categorisent des personnes physiques sur la base de donnees biometriques pour deduire leur race, leurs opinions politiques, leur appartenance syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle, avec des exceptions limitees pour les forces de l'ordre.
Identification biometrique a distance en temps reel dans les espaces publics (article 5, paragraphe 1, point h)) : Les systemes d'identification biometrique a distance en temps reel utilises dans les espaces accessibles au public a des fins repressives, avec des exceptions limitees pour les recherches ciblees liees a des crimes graves, des menaces imminentes ou des attaques terroristes.
Actions de conformite requises
Les organisations devaient auditer leurs systemes d'IA avant cette date et abandonner toute pratique interdite. Il n'y avait pas de delai de grace -- a compter du 2 fevrier 2025, la non-conformite a l'article 5 est passible de sanctions pouvant atteindre 35 millions d'EUR ou 7 % du chiffre d'affaires annuel mondial.
Need auditable AI for compliance?
Ctrl AI provides full execution traces, expert verification, and trust-tagged outputs for every AI decision.
Learn About Ctrl AIPhase 3 : GPAI et gouvernance (aout 2025)
La prochaine etape majeure est le 2 aout 2025, date a laquelle les obligations relatives aux modeles d'IA a usage general (GPAI) et le cadre de gouvernance entreront en vigueur.
Obligations relatives aux modeles d'IA a usage general
Le chapitre V du Reglement sur l'IA etablit des exigences pour tous les modeles GPAI. A compter du 2 aout 2025, les fournisseurs de modeles GPAI doivent :
Tenir a jour la documentation technique (article 53, paragraphe 1, point a)) : Les fournisseurs doivent elaborer et maintenir a jour la documentation technique du modele, y compris son processus d'entrainement et de test et les resultats de celui-ci, qui doit etre mise a la disposition du Bureau de l'IA et des autorites nationales competentes sur demande.
Fournir des informations aux fournisseurs en aval (article 53, paragraphe 1, point b)) : Lorsqu'un modele GPAI est integre dans un systeme d'IA, le fournisseur du GPAI doit fournir des informations et une documentation suffisantes pour permettre au fournisseur du systeme d'IA en aval de comprendre les capacites et les limites du modele et de se conformer a ses propres obligations.
Se conformer aux regles relatives au droit d'auteur (article 53, paragraphe 1, point c)) : Les fournisseurs de GPAI doivent mettre en place une politique de conformite au droit d'auteur de l'Union, en particulier pour identifier et respecter les reserves de droits exprimees par les titulaires de droits au titre de l'article 4, paragraphe 3, de la directive sur le droit d'auteur.
Publier un resume des donnees d'entrainement (article 53, paragraphe 1, point d)) : Les fournisseurs doivent elaborer et mettre a disposition du public un resume suffisamment detaille du contenu utilise pour l'entrainement du modele GPAI, selon un modele fourni par le Bureau de l'IA.
Modeles GPAI presentant un risque systemique
Les modeles GPAI classes comme presentant un risque systemique au titre de l'article 51 -- y compris les modeles entraines avec plus de 10^25 FLOP de calcul -- sont soumis a des obligations supplementaires a compter de cette date :
- Realiser des evaluations de modeles, y compris des tests adverses
- Evaluer et attenuer les risques systemiques
- Suivre et signaler les incidents graves au Bureau de l'IA et aux autorites nationales competentes concernees
- Assurer des protections adequates en matiere de cybersecurite
Cadre de gouvernance
Plusieurs dispositions de gouvernance entrent egalement en vigueur le 2 aout 2025 :
- Le Comite europeen de l'intelligence artificielle (article 65) devient operationnel, avec des representants de chaque Etat membre.
- Les Etats membres doivent designer les autorites nationales competentes (article 70), comprenant au moins une autorite notifiante et une autorite de surveillance du marche.
- Le Forum consultatif (article 67) est etabli pour fournir l'expertise des parties prenantes.
Phase 4 : L'echeance majeure de conformite (aout 2026)
Le 2 aout 2026 est la date la plus consequente pour la majorite des organisations. C'est a cette date que la plupart des dispositions du reglement deviennent applicables, y compris l'ensemble des exigences relatives aux systemes d'IA a haut risque enumeres a l'annexe III.
Exigences relatives aux systemes d'IA a haut risque
A compter de cette date, les fournisseurs de systemes d'IA a haut risque enumeres a l'annexe III doivent se conformer a toutes les exigences des articles 8 a 15 :
- Systeme de gestion des risques (article 9)
- Donnees et gouvernance des donnees (article 10)
- Documentation technique (article 11)
- Tenue de registres et journalisation (article 12)
- Transparence et fourniture d'informations (article 13)
- Controle humain (article 14)
- Exactitude, robustesse et cybersecurite (article 15)
Obligations des deployers
Les deployers de systemes d'IA a haut risque doivent egalement se conformer a compter de cette date. Au titre de l'article 26, les deployers doivent :
- Utiliser les systemes d'IA conformement aux instructions d'utilisation
- Assurer un controle humain par des personnes formees
- Surveiller le fonctionnement du systeme d'IA
- Conserver les journaux generes par le systeme d'IA pendant la duree prescrite
- Informer les travailleurs et leurs representants de l'utilisation du systeme d'IA a haut risque
- Realiser des evaluations d'impact sur les droits fondamentaux (pour les organismes publics et certaines entites privees au titre de l'article 27)
Obligations de transparence pour les systemes a risque limite
Les obligations de transparence de l'article 50 s'appliquent a compter du 2 aout 2026. Cela exige :
- Les systemes d'IA destines a interagir directement avec des personnes doivent reveler que la personne interagit avec un systeme d'IA
- Les fournisseurs de systemes d'IA generant du contenu synthetique (hypertrucages) doivent marquer les resultats dans un format lisible par machine
- Les deployers de systemes de reconnaissance des emotions ou de categorisation biometrique doivent informer les personnes exposees
Bacs a sable reglementaires
Au titre de l'article 57, chaque Etat membre doit etablir au moins un bac a sable reglementaire pour l'IA au niveau national d'ici le 2 aout 2026. Ces bacs a sable fournissent un environnement de test controle ou des systemes d'IA innovants peuvent etre developpes et valides sous supervision reglementaire.
Les organisations qui sont fournisseurs ou deployers de systemes d'IA a haut risque enumeres a l'annexe III -- couvrant des domaines tels que l'emploi, la notation de credit, l'education, les infrastructures critiques et les forces de l'ordre -- doivent etre pleinement conformes d'ici le 2 aout 2026. La non-conformite est passible d'amendes pouvant atteindre 15 millions d'EUR ou 3 % du chiffre d'affaires mondial.
Phase 5 : Application complete (aout 2027)
La date d'application finale est le 2 aout 2027, date a laquelle les dispositions restantes s'appliquent.
Systemes d'IA a haut risque de l'annexe I
Cette phase concerne principalement les systemes d'IA a haut risque qui servent de composants de securite de produits deja reglementes au titre de la legislation d'harmonisation de l'UE figurant a l'annexe I. Il s'agit notamment de produits regis par :
- Reglement (UE) 2017/745 -- Dispositifs medicaux
- Reglement (UE) 2017/746 -- Dispositifs medicaux de diagnostic in vitro
- Directive 2006/42/CE / Reglement (UE) 2023/1230 -- Machines
- Directive 2009/48/CE -- Securite des jouets
- Directive 2014/33/UE -- Ascenseurs
- Directive 2014/34/UE -- Appareils destines a etre utilises en atmospheres explosibles
- Directive 2014/53/UE -- Equipements radioelectriques
- Reglement (UE) 2024/1252 -- Matieres premieres critiques (produits pertinents)
Pour ces systemes, les procedures d'evaluation de la conformite existantes au titre de la legislation sectorielle integreront les exigences du Reglement sur l'IA. Cette annee supplementaire donne aux fabricants le temps de mettre a jour leurs procedures de conformite.
Evaluation de la conformite et organismes notifies
D'ici le 2 aout 2027, le systeme des organismes notifies doit etre pleinement operationnel. Les organismes notifies sont des organisations designees par les Etats membres pour realiser des evaluations de la conformite pour certains systemes d'IA a haut risque lorsqu'une evaluation par un tiers est requise.
Elaborer votre feuille de route de conformite
Compte tenu du calendrier progressif, les organisations devraient adopter une approche structuree de la conformite.
Priorites immediates (maintenant)
- Verifier qu'aucune pratique d'IA interdite ne reste en activite
- Lancer des programmes de culture en matiere d'IA au titre de l'article 4
- Commencer l'inventaire de tous les systemes d'IA et la classification de leur niveau de risque
A court terme (avant aout 2025)
- Les fournisseurs de modeles GPAI doivent finaliser la documentation technique et les resumes des donnees d'entrainement
- Etablir des relations avec les fournisseurs en aval pour le partage d'informations
- Suivre la publication des codes de bonnes pratiques par le Bureau de l'IA
A moyen terme (avant aout 2026)
- Mettre en oeuvre l'ensemble des exigences pour les systemes d'IA a haut risque au titre des articles 8-15
- Etablir ou mettre a jour les systemes de gestion de la qualite
- Preparer les obligations des deployers, y compris les evaluations d'impact sur les droits fondamentaux
- Mettre a jour les mesures de transparence pour les systemes d'IA a risque limite
A long terme (avant aout 2027)
- Integrer les exigences du Reglement sur l'IA dans les procedures d'evaluation de la conformite sectorielles
- S'engager aupres des organismes notifies pour les evaluations par des tiers lorsque cela est requis
- Veiller a ce que tous les systemes d'IA de securite des produits restants soient pleinement conformes
Le calendrier progressif est concu pour laisser aux organisations un temps de preparation adequat, mais ce temps est limite. Les organisations qui traitent la conformite comme une priorite strategique plutot que comme un exercice de derniere minute seront mieux positionnees pour naviguer cette transition en douceur et maintenir un avantage concurrentiel.
Conclusion
Le calendrier d'application du Reglement sur l'IA de l'UE s'etend sur trois ans, de son entree en vigueur le 1er aout 2024 a son application complete le 2 aout 2027. Chaque phase introduit de nouvelles obligations, et l'effet cumulatif est un cadre reglementaire complet qui faconnera la maniere dont l'IA est developpee et deployee en Europe et au-dela.
La periode la plus critique se situe entre maintenant et aout 2026, lorsque l'essentiel des exigences du reglement deviendra applicable. Les organisations devraient utiliser le calendrier ci-dessus pour prioriser leurs efforts de conformite, en commencant par un inventaire de leurs systemes d'IA et un exercice approfondi de classification des risques.
Le calendrier n'est pas seulement une serie d'echeances -- c'est une feuille de route. Les organisations qui le suivent systematiquement eviteront non seulement les sanctions, mais batiront les structures de gouvernance necessaires a un deploiement responsable et fiable de l'IA.
Make Your AI Auditable and Compliant
Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.
Explore Ctrl AIArticles connexes
Sanctions du Reglement sur l'IA de l'UE : Amendes jusqu'a 35 millions d'euros expliquees
Ventilation complete des sanctions et amendes du Reglement sur l'IA de l'UE -- de 35 millions d'euros pour les pratiques interdites a 7,5 millions d'euros pour les informations inexactes. Comprendre le regime de sanctions et comment les eviter.
Systemes d'IA a haut risque : Exigences completes au titre du Reglement sur l'IA de l'UE
Guide detaille des exigences relatives aux systemes d'IA a haut risque au titre du Reglement sur l'IA de l'UE -- gestion des risques, gouvernance des donnees, documentation, controle humain, exactitude et cybersecurite.
Classification des risques du Reglement sur l'IA de l'UE : Les quatre niveaux expliques
Analyse approfondie du systeme de classification des risques a quatre niveaux du Reglement sur l'IA de l'UE -- risque inacceptable, eleve, limite et minimal. Decouvrez dans quelle categorie se situe votre systeme d'IA et ce qui est requis.