CRA et AI Act : double conformite produits IA
CRA et AI Act : comment gerer la double conformite pour les produits integrant de l'intelligence artificielle.
CRA et AI Act : double conformite produits IA
Les produits numeriques integrant des composants d’intelligence artificielle se trouvent a la croisee de deux reglementations europeennes majeures : le Cyber Resilience Act (CRA) et le AI Act. Un objet connecte equipe d’un systeme d’IA, un logiciel de cybersecurite utilisant du machine learning, ou un dispositif medical connecte fonctionnant avec un algorithme d’aide au diagnostic sont autant d’exemples de produits soumis simultanement aux exigences de ces deux textes.
Cette double conformite impose aux fabricants de naviguer entre deux cadres reglementaires qui, bien que complementaires, reposent sur des logiques, des procedures et des calendriers distincts. Le defi est considerable : il ne s’agit pas simplement d’additionner deux ensembles d’obligations, mais de les articuler de maniere coherente et efficiente.
Le champ de recouvrement entre CRA et AI Act
Les produits concernes par la double conformite
La double conformite CRA et AI Act s’applique a tout produit qui constitue un produit comportant des elements numeriques au sens du CRA et qui integre un systeme d’IA au sens du AI Act.
Concretement, les categories de produits les plus frequemment concernees incluent les systemes de surveillance et de detection d’intrusion utilisant du machine learning, les dispositifs IoT equipes d’assistants vocaux ou de systemes de reconnaissance, les logiciels de cybersecurite integrant de l’IA (detection de menaces, analyse comportementale), les vehicules connectes equipes de systemes d’aide a la conduite, les dispositifs medicaux connectes avec aide au diagnostic par IA, et les robots industriels et collaboratifs equipes de systemes de vision par ordinateur.
L’articulation prevue par les textes
Le legislateur europeen a anticipe cette situation de double conformite. Le considerant 10 du CRA precise que le reglement est sans prejudice du AI Act. L’article 8 du AI Act prevoit quant a lui des mecanismes d’articulation avec la legislation d’harmonisation de l’Union (dont le CRA fait partie).
Le principe general est le suivant : pour les systemes d’IA a haut risque integres dans des produits soumis a la legislation d’harmonisation de l’Union, la conformite au AI Act est evaluee dans le cadre de la procedure d’evaluation de conformite de la legislation sectorielle (en l’occurrence le CRA), si ce produit fait l’objet d’une evaluation de conformite par un organisme notifie.
Les exigences du CRA pour les produits IA
Les exigences essentielles de cybersecurite
Le CRA impose des exigences de cybersecurite qui s’appliquent integralement aux produits IA : securite des la conception, protection contre les acces non autorises, protection des donnees, mises a jour de securite, gestion des vulnerabilites, et configuration securisee par defaut.
Pour les produits IA, ces exigences ont des implications specifiques. La securite des la conception doit integrer la protection du modele d’IA contre les attaques adversariales (empoisonnement des donnees, evasion, extraction de modele). La protection des donnees couvre les donnees d’entrainement, les donnees d’inference et les parametres du modele. La gestion des vulnerabilites doit inclure les vulnerabilites specifiques aux systemes d’IA.
La documentation technique CRA pour les produits IA
La documentation technique CRA doit couvrir les aspects specifiques a l’IA : description de l’architecture du modele d’IA (type d’algorithme, donnees d’entrainement, metriques de performance), evaluation des risques de cybersecurite specifiques a l’IA (attaques adversariales, biais, derives), le SBOM incluant les frameworks d’IA utilises (TensorFlow, PyTorch, etc.), et les resultats des tests de securite couvrant les vecteurs d’attaque specifiques a l’IA.
Les exigences du AI Act pour les produits CRA
La classification du composant IA
Le composant IA du produit doit etre classifie selon la classification des risques du AI Act. Si le systeme d’IA est a haut risque (annexe III du AI Act), les obligations completes du titre III s’appliquent : systeme de gestion des risques, gouvernance des donnees, documentation technique AI Act, journalisation, transparence, supervision humaine, exactitude et robustesse.
La documentation technique AI Act
Le AI Act impose sa propre documentation technique (annexe IV), couvrant la description du systeme d’IA, les donnees d’entrainement, les performances, les mesures de gestion des risques IA, et les instructions d’utilisation. Cette documentation est en partie redondante avec la documentation technique CRA pour les aspects lies a l’IA.
Construire une approche integree de conformite
Le referentiel commun
L’approche la plus efficace consiste a construire un referentiel de conformite unique integrant les exigences des deux reglementations. Ce referentiel doit identifier les exigences communes (securite, gestion des risques, documentation, transparence), les exigences specifiques au CRA (gestion des vulnerabilites produit, marquage CE cyber, SBOM), les exigences specifiques au AI Act (gouvernance des donnees, supervision humaine, exactitude, AIPD), et les points d’articulation entre les deux cadres.
La documentation technique integree
La documentation technique peut etre structuree en un dossier unique couvrant les deux reglementations :
Partie commune : description du produit, architecture globale, composants, interfaces.
Section CRA : evaluation des risques de cybersecurite, conformite aux exigences essentielles de l’annexe I, SBOM, resultats des tests de securite, gestion des vulnerabilites.
Section AI Act : description du systeme d’IA, donnees d’entrainement et gouvernance des donnees, metriques de performance, mesures de gestion des risques IA, supervision humaine, transparence.
Section transversale : protection des donnees personnelles (intersection CRA-RGPD), analyse d’impact sur les droits fondamentaux, conformite au marquage CE.
L’evaluation de conformite unifiee
Le AI Act prevoit que pour les systemes d’IA a haut risque integres dans des produits reglementes, l’evaluation de conformite peut etre realisee dans le cadre de la procedure d’evaluation du produit. Pour un produit soumis au CRA :
- Si le produit est dans la categorie par defaut du CRA : auto-evaluation CRA + auto-evaluation AI Act (si le systeme IA n’est pas a haut risque) ;
- Si le produit est important (classe II) ou critique sous le CRA : evaluation tierce CRA, qui peut integrer l’evaluation AI Act ;
- Si le systeme IA est a haut risque : l’organisme notifie doit verifier la conformite aux deux reglementations.
Le systeme de gestion des risques integre
Le CRA et le AI Act imposent tous deux un systeme de gestion des risques. Pour les produits IA, un systeme de gestion des risques unique peut etre mis en place, couvrant simultanement les risques de cybersecurite (CRA) et les risques lies a l’IA (AI Act). Ce systeme doit identifier et evaluer les risques cyber et IA de maniere integree, analyser les interactions entre les risques (par exemple : une vulnerabilite cyber exploitee pour empoisonner un modele IA), definir des mesures d’attenuation couvrant les deux types de risques, et assurer un suivi continu des risques tout au long du cycle de vie.
Le calendrier de la double conformite
Les dates cles
| Reglementation | Echeance | Obligation |
|---|---|---|
| AI Act | 2 fevrier 2025 | Interdictions + maitrise IA |
| CRA | 11 septembre 2026 | Notification vulnerabilites |
| AI Act | 2 aout 2026 | Systemes IA haut risque (annexe III) |
| CRA | 11 decembre 2027 | Ensemble des obligations CRA |
| AI Act | 2 aout 2027 | Systemes IA haut risque (annexe I) |
Les fabricants doivent planifier leur mise en conformite pour respecter les echeances les plus proches en premier, en integrant progressivement les exigences des deux reglementations.
La strategie de mise en conformite
La strategie recommandee est la suivante : cartographier des maintenant les produits concernes par la double conformite, classifier les composants IA selon le AI Act et les produits selon le CRA, constituer les equipes (cybersecurite + IA + juridique + qualite), elaborer le referentiel de conformite integre, commencer par les obligations deja applicables (interdictions AI Act, maitrise IA) et anticiper les obligations a venir (notification vulnerabilites CRA, systemes haut risque AI Act).
L’articulation avec les autres reglementations
La double conformite CRA-AI Act peut se combiner avec d’autres reglementations sectorielles selon la nature du produit : le reglement sur les dispositifs medicaux pour les dispositifs connectes integrant de l’IA, le reglement sur les machines pour les robots industriels, la directive RED pour les equipements radio connectes, et le RGPD pour tout produit traitant des donnees personnelles.
L’ecosysteme reglementaire europeen, avec le CRA, le AI Act, NIS2, le Data Act et le RGPD, impose une approche de conformite globale et coordonnee, qui depasse le traitement isole de chaque reglementation.
FAQ
Tous les produits IA sont-ils soumis au CRA ?
Non. Le CRA s’applique aux produits comportant des elements numeriques mis sur le marche europeen. Les systemes d’IA purement logiciels fonctionnant en mode SaaS (sans composant materiel ni logiciel installe chez l’utilisateur) ne sont generalement pas couverts par le CRA (ils relevent de NIS2). En revanche, tout produit materiel ou logiciel installe integrant un composant IA est soumis au CRA. Les systemes d’IA embarques dans des objets connectes, des logiciels installes ou des composants sont pleinement concernes par la double conformite.
Qui est responsable de la double conformite : le fabricant du produit ou le fournisseur du modele IA ?
Le fabricant du produit (au sens du CRA) est responsable de la conformite du produit dans son ensemble, y compris les composants IA integres. Le fournisseur du systeme d’IA (au sens du AI Act) reste responsable des obligations specifiques au AI Act pour le systeme IA lui-meme. En pratique, si un fabricant integre un modele d’IA developpe par un tiers (par exemple, un modele OpenAI ou Mistral) dans son produit, il assume la responsabilite CRA du produit et doit s’assurer que le composant IA satisfait egalement aux exigences du AI Act, le cas echeant en obtenant les informations necessaires du fournisseur du modele.
La double conformite entraine-t-elle un double marquage CE ?
Non. Le marquage CE est unique et atteste de la conformite du produit a l’ensemble des reglementations applicables. Un produit soumis au CRA et au AI Act porte un seul marquage CE, qui couvre la conformite aux deux textes. La declaration de conformite, en revanche, doit mentionner les deux reglements et les procedures d’evaluation de conformite suivies pour chacun d’eux.
Restez informe sur la conformite
Recevez nos analyses et guides pratiques sur le RGPD, NIS2, AI Act et plus. Rejoint par 52 000+ professionnels.