Donneespersonnelles.fr

Plateforme de veille en conformite numerique

Samedi 28 mars 2026
AI Act

IA et recrutement : cadre legal et discrimination

IA et recrutement : obligations legales, risques de discrimination algorithmique, conformite AI Act et RGPD pour les employeurs.

IA et recrutement : cadre legal et discrimination algorithmique

L’utilisation de l’intelligence artificielle dans les processus de recrutement connait une croissance exponentielle. Tri automatise de CV, analyse semantique des candidatures, entretiens video avec detection d’emotions, chatbots de pre-selection, systemes de matching candidat-poste : les outils d’IA appliques au recrutement se diversifient et se sophistiquent. Selon les estimations disponibles, plus de 60 % des grandes entreprises utilisent deja au moins un outil fonde sur l’IA dans leur processus de recrutement.

Cette adoption massive souleve des questions juridiques fondamentales. Le recrutement touche directement a l’acces a l’emploi, un droit fondamental, et les decisions de recrutement sont particulierement exposees au risque de discrimination. Le AI Act a classe les systemes d’IA utilises en matiere de recrutement parmi les systemes a haut risque, leur imposant un regime d’obligations renforce. Cette classification se conjugue avec les dispositions du RGPD, du Code du travail et du droit de la non-discrimination pour former un cadre juridique dense que les employeurs doivent imperativement maitriser.

Le cadre juridique applicable a l’IA en matiere de recrutement

La classification a haut risque par le AI Act

L’annexe III du AI Act inclut explicitement les systemes d’IA utilises dans le domaine de l’emploi, de la gestion de la main-d’oeuvre et de l’acces a l’emploi independant parmi les systemes a haut risque. Sont specifiquement vises les systemes d’IA destines a etre utilises pour le recrutement ou la selection de personnes physiques, en particulier pour publier des offres d’emploi ciblees, pour analyser et filtrer des candidatures et pour evaluer des candidats.

Cette classification emporte l’application de l’ensemble des obligations prevues aux articles 8 a 15 du reglement : systeme de gestion des risques, exigences de qualite des donnees, documentation technique, enregistrement des evenements, transparence, controle humain, precision et robustesse. Le non-respect de ces obligations expose les fournisseurs et les deployeurs a des sanctions pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial.

Le RGPD et les decisions automatisees en matiere de recrutement

Le RGPD encadre de maniere specifique les traitements de donnees personnelles dans le cadre du recrutement. L’article 22 du RGPD interdit en principe les decisions fondees exclusivement sur un traitement automatise, y compris le profilage, produisant des effets juridiques ou des effets significatifs similaires a l’egard de la personne concernee. Une decision de rejet d’une candidature constitue incontestablement une decision produisant des effets juridiques significatifs.

Cette interdiction connait trois exceptions : la decision est necessaire a la conclusion ou a l’execution d’un contrat, elle est autorisee par le droit de l’Union ou le droit national, ou elle est fondee sur le consentement explicite de la personne. Meme dans ces cas, des garanties doivent etre mises en place, notamment le droit d’obtenir une intervention humaine, le droit d’exprimer son point de vue et le droit de contester la decision.

La CNIL a precise que l’utilisation de systemes d’IA pour le tri de candidatures necessitait la realisation d’une analyse d’impact relative a la protection des donnees (AIPD), compte tenu de la nature sensible du contexte (emploi) et de l’echelle du traitement. Cette AIPD doit evaluer les risques de discrimination et les mesures de mitigation mises en oeuvre.

Le Code du travail et le principe de pertinence

L’article L1221-6 du Code du travail, disponible sur Legifrance, dispose que les informations demandees au candidat a un emploi doivent presenter un lien direct et necessaire avec l’emploi propose ou avec l’evaluation des aptitudes professionnelles. Ce principe de pertinence s’applique integralement aux donnees collectees et analysees par les systemes d’IA de recrutement.

L’article L1221-8 impose en outre une obligation d’information prealable du candidat sur les methodes et techniques d’aide au recrutement utilisees a son egard. Cette obligation couvre explicitement l’utilisation de systemes d’IA et impose de communiquer au candidat l’existence du traitement algorithmique et ses modalites de fonctionnement.

Les risques de discrimination algorithmique

Les biais dans les donnees d’entrainement

La discrimination algorithmique en matiere de recrutement trouve sa source principale dans les biais presents dans les donnees d’entrainement. Lorsqu’un systeme d’IA est entraine sur des donnees historiques de recrutement, il reproduit et amplifie les biais discriminatoires contenus dans ces donnees. L’exemple emblematique reste celui du systeme d’IA de recrutement d’Amazon, abandonne en 2018, qui penalisait systematiquement les candidatures feminines parce qu’il avait ete entraine sur dix ans de donnees de recrutement refletant la predominance masculine dans le secteur technologique.

Les biais de donnees peuvent se manifester de multiples facons : sous-representation de certains groupes dans les donnees d’entrainement, correlation entre des variables apparemment neutres et des caracteristiques protegees (biais par proxy), desequilibre dans la repartition des labels de succes entre differents groupes.

Les biais de conception

Au-dela des donnees, la conception meme du systeme peut introduire des biais discriminatoires. Le choix des variables predictives, la definition de la metrique de performance, l’architecture du modele et les hyperparametres de l’algorithme sont autant de decisions de conception qui peuvent favoriser certains groupes au detriment d’autres.

Par exemple, un systeme utilisant le code postal comme variable predictive peut introduire une discrimination indirecte fondee sur l’origine ethnique ou la condition sociale, ces caracteristiques etant statistiquement correlees a la localisation geographique. De meme, un systeme analysant la stabilite professionnelle peut penaliser indirectement les femmes, dont les parcours professionnels sont plus souvent marques par des interruptions liees a la maternite.

Les biais d’interaction

Les systemes d’IA de recrutement qui interagissent directement avec les candidats, comme les chatbots d’entretien ou les systemes d’analyse video, peuvent generer des biais lies aux modalites d’interaction. Un systeme d’analyse vocale peut penaliser les locuteurs non natifs ou les personnes souffrant de troubles de l’elocution. Un systeme d’analyse des expressions faciales peut desavantager les personnes atteintes de certains handicaps affectant l’expression faciale.

Les obligations specifiques en matiere de non-discrimination

Les exigences du AI Act en matiere de qualite des donnees

L’article 10 du AI Act impose aux fournisseurs de systemes d’IA a haut risque des obligations specifiques en matiere de qualite des donnees d’entrainement. Les jeux de donnees doivent etre pertinents, suffisamment representatifs et, dans toute la mesure du possible, exempts d’erreurs et complets au regard de la finalite prevue. Le fournisseur doit prendre en compte les caracteristiques propres au contexte geographique, comportemental, fonctionnel ou culturel dans lequel le systeme est destine a etre utilise.

L’article 10, paragraphe 5, autorise explicitement le traitement de categories speciales de donnees a caractere personnel (origine ethnique, convictions religieuses, orientation sexuelle, etc.) dans la stricte mesure ou cela est necessaire pour detecter et corriger les biais. Cette disposition, qui deroge aux interdictions du RGPD, temoigne de la prise de conscience par le legislateur de la necessite de disposer de donnees relatives aux caracteristiques protegees pour pouvoir identifier et corriger les discriminations algorithmiques.

L’obligation d’audit de non-discrimination

Les fournisseurs de systemes d’IA de recrutement doivent integrer dans leur systeme de gestion des risques une evaluation specifique des risques de discrimination. Cette evaluation doit couvrir l’ensemble des criteres de discrimination prohibes par le droit europeen et national. L’audit algorithmique constitue l’outil methodologique de reference pour cette evaluation.

Cet audit doit verifier l’equite des resultats du systeme a travers plusieurs metriques : taux de selection differentiel (disparate impact), egalite des chances (equalized odds), egalite des taux de faux positifs et de faux negatifs entre les differents groupes. Le choix de la metrique d’equite est une decision juridiquement significative, car les differentes metriques ne sont pas necessairement compatibles entre elles.

La transparence vis-a-vis des candidats

Le cumul des obligations du RGPD, du Code du travail et du AI Act impose un niveau de transparence eleve vis-a-vis des candidats. L’employeur deployant un systeme d’IA de recrutement doit informer les candidats de l’utilisation d’un systeme d’IA dans le processus de selection, des categories de donnees traitees et de leur finalite, de la logique sous-jacente du traitement algorithmique, de l’existence ou non d’une intervention humaine dans le processus de decision, de leurs droits, notamment le droit d’obtenir une intervention humaine et le droit de contester la decision.

Cette information doit etre fournie de maniere claire, comprehensible et accessible avant le debut du traitement. La conformite RGPD impose par ailleurs de preciser les categories de donnees collectees, les durees de conservation et les droits des personnes concernees.

Les bonnes pratiques de mise en conformite

L’approche par la gestion des risques

La mise en conformite d’un systeme d’IA de recrutement doit s’inscrire dans une approche globale de gestion des risques, combinant les exigences du AI Act et du RGPD. Cette approche implique une cartographie prealable des risques de discrimination inherents au systeme, une evaluation de la representativite des donnees d’entrainement, des tests de non-discrimination reguliers sur les resultats du systeme, la mise en place de mecanismes de correction des biais detectes et un suivi continu des performances du systeme en production.

Le controle humain effectif

Le controle humain dans le contexte du recrutement ne doit pas se reduire a une simple validation formelle des resultats produits par le systeme d’IA. Les personnes en charge du controle doivent disposer de la competence, de l’autorite et des moyens necessaires pour evaluer de maniere critique les resultats du systeme, pour s’ecarter de ses recommandations et pour decider de ne pas l’utiliser dans des cas specifiques.

En pratique, cela implique une formation adequate des recruteurs aux limites et aux biais potentiels du systeme, une capacite effective a visualiser les criteres ayant determine le classement ou le rejet d’une candidature, et la possibilite concrete de reintegrer dans le processus des candidatures ecartees par le systeme.

La documentation et la tracabilite

La documentation technique du systeme doit inclure les choix de conception, les donnees d’entrainement, les metriques de performance et les resultats des tests de non-discrimination. Le registre des systemes d’IA doit etre tenu a jour pour les systemes utilises en recrutement. La sous-traitance du traitement de donnees a des fournisseurs de solutions d’IA de recrutement doit faire l’objet de clauses contractuelles specifiques conformes a l’article 28 du RGPD.

L’ensemble de ces exigences doit etre documente et conserve pour permettre une conformite verifiable en cas de controle par les autorites competentes.

FAQ

L’utilisation de l’IA pour le tri de CV est-elle legale en France ?

L’utilisation de l’IA pour le tri de CV est legale en France, sous reserve du respect d’un ensemble d’obligations strictes. Le systeme doit etre conforme aux exigences du AI Act applicables aux systemes a haut risque (gestion des risques, qualite des donnees, transparence, controle humain). Le traitement doit respecter le RGPD, notamment l’article 22 relatif aux decisions automatisees : si le systeme procede a un tri eliminatoire sans intervention humaine, le candidat doit en etre informe et avoir le droit d’obtenir une intervention humaine, d’exprimer son point de vue et de contester la decision. L’employeur doit informer le candidat de l’utilisation du systeme conformement a l’article L1221-8 du Code du travail. Enfin, une AIPD doit etre realisee prealablement au deploiement du systeme.

Comment prouver que mon systeme d’IA de recrutement n’est pas discriminatoire ?

La preuve de l’absence de discrimination d’un systeme d’IA de recrutement repose sur une demarche documentee et continue. Elle implique la realisation d’audits reguliers de non-discrimination portant sur les resultats du systeme, ventiles par criteres proteges (genre, age, origine, handicap). Les metriques d’equite doivent etre choisies et documentees : taux de selection differentiel (la regle des 4/5e americaine constitue un repere, mais n’est pas un seuil legalement consacre en droit francais), egalite des taux de faux positifs et de faux negatifs. Les resultats de ces audits doivent etre conserves dans la documentation technique du systeme. En cas de biais detecte, les mesures correctives mises en oeuvre doivent etre documentees et leur efficacite verifiee.

Quelles sont les sanctions en cas de discrimination par un systeme d’IA de recrutement ?

Les sanctions s’articulent a trois niveaux. Au titre du AI Act, le non-respect des obligations applicables aux systemes a haut risque est sanctionne par des amendes pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial. Au titre du RGPD, les violations relatives aux decisions automatisees et a la protection des donnees sont sanctionnees par des amendes pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires mondial. Au titre du droit du travail et du droit penal, la discrimination a l’embauche est punie de 3 ans d’emprisonnement et de 45 000 euros d’amende (article 225-2 du Code penal). La victime peut en outre obtenir des dommages et interets devant les juridictions civiles ou prudhomales. Le regime probatoire est amenage : le candidat doit presenter des elements laissant supposer l’existence d’une discrimination, et il appartient ensuite a l’employeur de prouver que sa decision est fondee sur des elements objectifs etrangers a toute discrimination.

Restez informe sur la conformite

Recevez nos analyses et guides pratiques sur le RGPD, NIS2, AI Act et plus. Rejoint par 52 000+ professionnels.