Classification des risques IA : comprendre les 4 niveaux du AI Act
Le AI Act classe les systemes d'IA en 4 niveaux de risque. Guide pratique pour determiner la categorie de votre systeme et les obligations qui en decoulent.
- Le fondement de l’approche par les risques
- Niveau 1 : les systemes d’IA a risque inacceptable (pratiques interdites)
- Niveau 2 : les systemes d’IA a haut risque
- Niveau 3 : les systemes d’IA a risque limite (obligations de transparence)
- Niveau 4 : les systemes d’IA a risque minimal
- Arbre de decision : comment classifier votre systeme d’IA
- Le calendrier d’entree en application
- Points de vigilance
- Conclusion
Classification des risques IA : comprendre les 4 niveaux du AI Act
Le reglement europeen sur l’intelligence artificielle (AI Act), entre en vigueur le 1er aout 2024, repose sur une architecture reglementaire fondee sur une classification des risques IA a quatre niveaux. Cette approche graduee constitue le coeur du dispositif : les obligations imposees aux fournisseurs et deployers de systemes d’IA varient selon le niveau de risque identifie. Comprendre cette classification est donc un prealable indispensable a toute demarche de mise en conformite.
Cet article presente en detail chacun des quatre niveaux de risque, les criteres permettant de determiner dans quelle categorie un systeme d’IA se situe, et les consequences juridiques qui en decoulent.
Le fondement de l’approche par les risques
Le legislateur europeen a fait le choix delibere d’une reglementation proportionnee. Plutot que d’imposer un regime uniforme a l’ensemble des systemes d’intelligence artificielle, le AI Act adapte le niveau de contrainte reglementaire au degre de risque que le systeme presente pour la sante, la securite et les droits fondamentaux des personnes.
Cette logique n’est pas nouvelle en droit europeen. On la retrouve dans le RGPD, ou les obligations de l’organisme responsable de traitement sont modulees en fonction des risques que le traitement fait peser sur les droits et libertes des personnes concernees. Le AI Act pousse toutefois cette logique plus loin en etablissant une veritable taxonomie des risques, avec des consequences juridiques nettement differenciees.
La classification des risques IA prevue par le reglement distingue quatre niveaux :
- Risque inacceptable – systemes interdits
- Haut risque – systemes soumis a des obligations renforcees
- Risque limite – systemes soumis a des obligations de transparence
- Risque minimal – systemes non reglementes de maniere specifique
Examinons chacun de ces niveaux en detail.
Niveau 1 : les systemes d’IA a risque inacceptable (pratiques interdites)
L’article 5 du AI Act enumere les pratiques d’intelligence artificielle considerees comme incompatibles avec les valeurs fondamentales de l’Union europeenne. Ces systemes sont purement et simplement interdits sur le territoire europeen.
Les pratiques interdites
La liste des interdictions couvre les categories suivantes :
-
Les techniques de manipulation subliminale : les systemes d’IA qui deploient des techniques subliminales operant en dessous du seuil de conscience d’une personne, ou des techniques deliberement manipulatrices ou trompeuses, dans le but d’alterer materiellement le comportement d’une personne d’une maniere qui cause ou est raisonnablement susceptible de causer un prejudice significatif.
-
L’exploitation des vulnerabilites : les systemes exploitant les vulnerabilites liees a l’age, au handicap ou a une situation sociale ou economique specifique d’un groupe de personnes, dans le but d’alterer materiellement leur comportement d’une maniere prejudiciable.
-
La notation sociale (social scoring) : les systemes d’IA evalouant ou classant des personnes physiques sur la base de leur comportement social ou de caracteristiques personnelles, lorsque cette notation conduit a un traitement prejudiciable ou defavorable dans des contextes sans lien avec celui dans lequel les donnees ont ete collectees, ou disproportionne par rapport au comportement en question.
-
L’evaluation du risque de recidive fondee uniquement sur le profilage ou les traits de personnalite, sans evaluation fondee sur des faits objectifs et verifiables.
-
La constitution de bases de donnees de reconnaissance faciale par la collecte non ciblee d’images faciales sur internet ou via des cameras de videosurveillance.
-
La reconnaissance des emotions sur le lieu de travail et dans les etablissements d’enseignement, sauf pour des raisons medicales ou de securite.
-
La categorisation biometrique fondee sur des donnees biometriques pour deduire la race, les opinions politiques, l’appartenance syndicale, les convictions religieuses ou philosophiques, la vie sexuelle ou l’orientation sexuelle, sauf dans certains cas encadres par la loi.
-
L’identification biometrique a distance en temps reel dans les espaces publics a des fins repressives, sauf dans des cas strictement encadres (recherche de victimes, prevention de menaces terroristes, localisation de suspects).
Consequences juridiques
Les systemes relevant de cette categorie ne peuvent etre ni developpes, ni mis sur le marche, ni utilises dans l’Union europeenne. Les sanctions prevues sont les plus lourdes du reglement : des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial de l’entreprise contrevenante.
Exemples concrets
- Un systeme de notation des citoyens par une autorite publique sur la base de leur comportement en ligne.
- Un logiciel publicitaire exploitant des techniques subliminales pour pousser des personnes agees a effectuer des achats prejudiciables.
- Un systeme de reconnaissance faciale constituant sa base de donnees par aspiration massive d’images depuis les reseaux sociaux.
Niveau 2 : les systemes d’IA a haut risque
C’est le coeur du dispositif reglementaire. Les systemes d’IA a haut risque sont autorises mais soumis a un ensemble d’obligations substantielles avant leur mise sur le marche et tout au long de leur cycle de vie.
Comment identifier un systeme a haut risque
Le AI Act definit deux voies d’identification des systemes a haut risque :
Premiere voie (article 6, paragraphe 1) : les systemes d’IA qui constituent eux-memes un produit, ou un composant de securite d’un produit, relevant de la legislation d’harmonisation de l’Union listee a l’annexe I (dispositifs medicaux, machines, jouets, equipements radio, ascenseurs, etc.) et qui doivent faire l’objet d’une evaluation de conformite par un tiers.
Deuxieme voie (article 6, paragraphe 2 et annexe III) : les systemes d’IA deployes dans des domaines specifiques, enumeres a l’annexe III :
- Identification biometrique et categorisation des personnes physiques
- Gestion et exploitation d’infrastructures critiques (eau, gaz, electricite, transports, numerique)
- Education et formation professionnelle (admission, evaluation, surveillance des examens)
- Emploi et gestion des travailleurs (recrutement, decisions relatives a la promotion, au licenciement, a la repartition des taches)
- Acces aux services essentiels (credit, assurance, services publics, prestations sociales, services d’urgence)
- Repression (evaluation des risques, polygraphes, evaluation de la fiabilite des preuves, profilage)
- Migration, asile et controle aux frontieres (evaluation des risques, verification des documents, examen des demandes)
- Administration de la justice et processus democratiques (recherche juridique, application de la loi aux faits)
Il convient toutefois de noter une nuance importante : un systeme relevant de l’annexe III n’est pas automatiquement classe a haut risque si son fournisseur demontre qu’il ne presente pas de risque significatif de prejudice pour la sante, la securite ou les droits fondamentaux des personnes, notamment lorsque le systeme n’effectue qu’une tache preparatoire etroite ou ameliore le resultat d’une activite humaine prealable (article 6, paragraphe 3).
Les obligations applicables
Les fournisseurs de systemes d’IA a haut risque doivent satisfaire un ensemble d’exigences detaillees : systeme de gestion des risques (article 9), gouvernance des donnees d’entrainement avec criteres de qualite (article 10), documentation technique (article 11), journalisation automatique (article 12), transparence suffisante pour les deployers (article 13), supervision humaine effective (article 14), et precision, robustesse et cybersecurite (article 15).
Exemples concrets
- Un logiciel de tri automatise de CV dans un processus de recrutement.
- Un systeme de credit scoring utilisant l’IA pour evaluer la solvabilite des emprunteurs.
- Un dispositif medical integrant un algorithme de diagnostic assiste par IA.
- Un systeme de videosurveillance intelligente utilisant la reconnaissance faciale dans un aeroport.
Niveau 3 : les systemes d’IA a risque limite (obligations de transparence)
Le troisieme niveau de la classification des risques IA concerne les systemes soumis a des obligations specifiques de transparence, prevues aux articles 50 et suivants du AI Act.
Systemes concernes
Sont principalement vises :
-
Les systemes d’interaction directe avec des personnes (chatbots, assistants virtuels) : les personnes doivent etre informees qu’elles interagissent avec un systeme d’IA, sauf lorsque cela est evident au vu des circonstances.
-
Les systemes de reconnaissance des emotions et de categorisation biometrique (lorsqu’ils ne sont pas interdits) : les personnes exposees doivent en etre informees.
-
Les systemes generant ou manipulant du contenu (images, audio, video, texte) : le contenu genere artificiellement doit etre marque comme tel de maniere lisible par les machines. Les deepfakes doivent etre identifies comme du contenu genere ou manipule artificiellement.
-
Les modeles d’IA a usage general (GPAI) : obligations de transparence renforcees, incluant la publication d’un resume suffisamment detaille des donnees d’entrainement utilisees.
Exemples concrets
- Un chatbot de service client doit informer l’utilisateur qu’il echange avec une IA.
- Un outil de generation d’images (DALL-E, Midjourney, Stable Diffusion) doit marquer les images produites.
- Un systeme de synthese vocale realiste doit signaler le contenu comme artificiel.
Niveau 4 : les systemes d’IA a risque minimal
Le dernier niveau de la classification des risques IA concerne la grande majorite des systemes d’IA actuellement deployes. Ces systemes ne font l’objet d’aucune obligation specifique au titre du AI Act.
Systemes concernes
Relevent de cette categorie les systemes d’IA qui ne presentent pas de risque significatif pour les droits fondamentaux, la sante ou la securite des personnes. Cela inclut par exemple :
- Les filtres anti-spam
- Les systemes de recommandation de contenu (hors cas specifiques)
- Les correcteurs orthographiques et grammaticaux assistes par IA
- Les systemes d’optimisation logistique
- Les outils de traduction automatique
- Les jeux video utilisant l’IA
Un regime volontaire
Le AI Act encourage l’adoption volontaire de codes de conduite (durabilite, accessibilite, diversite), mais n’impose aucune obligation contraignante. Il est toutefois essentiel de rappeler que l’absence d’obligations au titre du AI Act n’exonere pas de l’application du RGPD lorsque le systeme traite des donnees personnelles.
Arbre de decision : comment classifier votre systeme d’IA
Pour determiner dans quelle categorie de la classification des risques IA votre systeme se situe, suivez ce raisonnement sequentiel :
Etape 1 – Verification des pratiques interdites Votre systeme correspond-il a l’une des pratiques listees a l’article 5 du AI Act (manipulation subliminale, exploitation des vulnerabilites, notation sociale, reconnaissance faciale de masse, etc.) ?
- Si oui : risque inacceptable – le systeme est interdit.
- Si non : passer a l’etape 2.
Etape 2 – Verification du haut risque (voie produit) Votre systeme d’IA constitue-t-il un produit ou un composant de securite d’un produit relevant de la legislation d’harmonisation de l’Union listee a l’annexe I, necessitant une evaluation de conformite par un tiers ?
- Si oui : haut risque (sauf si l’exception de l’article 6, paragraphe 3 s’applique).
- Si non : passer a l’etape 3.
Etape 3 – Verification du haut risque (voie domaine) Votre systeme est-il deploye dans l’un des domaines listes a l’annexe III (biometrie, infrastructures critiques, education, emploi, services essentiels, repression, migration, justice) ?
- Si oui : haut risque, sauf si le fournisseur demontre que le systeme ne presente pas de risque significatif (article 6, paragraphe 3).
- Si non : passer a l’etape 4.
Etape 4 – Verification des obligations de transparence Votre systeme interagit-il directement avec des personnes (chatbot), genere-t-il du contenu synthetique (texte, images, video, audio), detecte-t-il des emotions ou procede-t-il a une categorisation biometrique ?
- Si oui : risque limite – obligations de transparence applicables.
- Si non : passer a l’etape 5.
Etape 5 – Risque minimal Votre systeme ne releve d’aucune des categories precedentes : risque minimal. Aucune obligation specifique au titre du AI Act, mais les autres reglementations applicables (RGPD, droit de la consommation, droit sectoriel) continuent de s’appliquer.
Le calendrier d’entree en application
La classification des risques IA produit ses effets de maniere echelonnee :
- 2 fevrier 2025 : les interdictions relatives aux systemes a risque inacceptable sont applicables.
- 2 aout 2025 : les obligations relatives aux modeles d’IA a usage general (GPAI) et les regles de gouvernance sont applicables.
- 2 aout 2026 : les obligations relatives aux systemes d’IA a haut risque definis a l’annexe III sont applicables.
- 2 aout 2027 : les obligations relatives aux systemes d’IA a haut risque integres dans des produits relevant de la legislation d’harmonisation de l’Union sont applicables.
Ce calendrier progressif laisse aux acteurs le temps de se preparer, mais il est essentiel d’anticiper des maintenant les demarches de mise en conformite, en particulier pour les systemes susceptibles d’etre classes a haut risque.
Points de vigilance
La classification n’est pas figee : un systeme peut migrer vers un niveau superieur si son perimetre d’utilisation evolue. Par ailleurs, la classification des risques IA ne se substitue pas a l’analyse des risques au titre du RGPD – les deux cadres se cumulent. Un systeme a risque minimal au sens du AI Act peut necessiter une AIPD si le traitement de donnees personnelles presente un risque eleve. Consultez notre article IA et RGPD pour approfondir cette articulation. Enfin, il est recommande de documenter le raisonnement de classification, element de preuve essentiel en cas de controle.
Conclusion
La classification des risques IA constitue la pierre angulaire du AI Act. Elle determine l’ensemble des obligations applicables a un systeme d’intelligence artificielle et conditionne la strategie de mise en conformite a deployer. Toute organisation developpant ou utilisant des systemes d’IA doit imperativement mener cet exercice de classification en amont, en s’appuyant sur une analyse rigoureuse des fonctionnalites du systeme, de son domaine de deploiement et de ses impacts potentiels sur les droits fondamentaux.
Pour une analyse complete du reglement europeen sur l’intelligence artificielle, consultez notre guide : EU AI Act : le guide complet.
Restez informe sur la conformite
Recevez nos analyses et guides pratiques sur le RGPD, NIS2, AI Act et plus. Rejoint par 52 000+ professionnels.