AI Act et ATS de recrutement : 5 choses à savoir

illustration_article_cv

Introduction

À partir du 2 août 2026, les outils d’IA utilisés pour le recrutement entrent dans le régime opérationnel des systèmes à haut risque prévu par l’AI Act. Si votre ATS embarque du tri de CV, du scoring, une aide à la décision ou des analyses d’entretien, vous devez vérifier dès maintenant sa conformité et celle de votre usage.

Pourquoi cette date change la donne ?

Le sujet ne concerne plus seulement les éditeurs. Il concerne aussi les entreprises qui déploient ces outils dans leurs processus RH.

Sur le terrain, nous constatons la même situation chez de nombreuses PME françaises : la DRH a acheté un ATS pour gagner du temps, mais personne n’a vraiment qualifié le niveau de risque juridique de ses fonctions IA. Le problème n’est pas l’outil en lui même. Le problème est l’usage que vous en faites, le niveau d’automatisation toléré et les preuves de conformité que votre fournisseur est capable de produire.

L’AI Act impose des exigences précises aux systèmes d’IA à haut risque, notamment sur la gouvernance des données, la documentation, la supervision humaine, la robustesse et l’enregistrement dans la base européenne pour les systèmes concernés. Attendre juillet 2026 pour poser les bonnes questions serait une erreur de pilotage, car les ajustements contractuels, techniques et organisationnels prennent du temps.

Quels outils RH sont concernés ?

Tous les ATS ne sont pas concernés au même niveau. En revanche, dès qu’un module d’IA influence l’évaluation ou la sélection d’un candidat, le niveau d’attention doit monter fortement.

Exemples de fonctionnalités à analyser :

  • Tri automatique des CV selon des critères de pertinence.
  • Scoring ou classement des candidats.
  • Aide à la présélection.
  • Analyse automatisée d’entretiens vidéo ou vocaux.
  • Recommandation de candidats à convoquer ou à écarter.

Ces usages sont particulièrement sensibles car ils touchent directement à l’accès à l’emploi. C’est précisément pour cette raison que le règlement européen place les systèmes d’IA utilisés dans le domaine de l’emploi et de la gestion des travailleurs dans la catégorie des systèmes à haut risque.

Ce que vous devez vérifier chez votre fournisseur ATS

Un fournisseur sérieux doit répondre vite, clairement et par écrit. Une réponse floue, commerciale ou purement marketing doit être traitée comme un signal d’alerte.

1. L’outil analyse t il les émotions des candidats ?

La reconnaissance des émotions dans le cadre professionnel fait partie des usages interdits par l’AI Act, sauf exceptions très limitées liées à la santé ou à la sécurité. Si votre fournisseur parle de détection du stress, de la sincérité, de la motivation ou de la personnalité à partir du visage, de la voix ou des micro expressions, vous devez approfondir immédiatement.

En pratique, il faut demander une réponse simple : quelles variables sont analysées, pour quel objectif et sur quelle base juridique et technique. Un fournisseur incapable d’expliquer précisément cela vous expose.

2. Le contrôle humain est il réel ?

Le règlement ne vise pas un simple habillage humain d’une décision automatisée. Il exige une supervision humaine effective, capable de comprendre la logique de l’outil, de contester un résultat et d’empêcher qu’une recommandation soit suivie mécaniquement.

C’est un point que nous voyons souvent mal traité. Beaucoup d’éditeurs présentent un bouton valider comme une garantie suffisante. Ce n’est pas une supervision humaine sérieuse si le recruteur n’a ni contexte, ni marge réelle de correction, ni procédure pour revoir la décision.

3. La notice d’utilisation est elle conforme ?

L’AI Act impose une documentation utile à l’utilisateur, pas un manuel commercial générique. Votre fournisseur doit pouvoir fournir une notice expliquant les finalités du système, ses limites, les conditions normales d’utilisation, les exigences de qualité des données d’entrée, le niveau de supervision humaine attendu et les précautions à prendre.

Sans cette documentation, votre équipe RH ne peut pas démontrer un usage maîtrisé. Et sans usage maîtrisé, votre exposition juridique augmente très vite en cas de contrôle, de contentieux candidat ou de signalement interne.

4. Les données d’entraînement ont elles été auditées pour les biais ?

La qualité des données est au cœur du dispositif de conformité des systèmes à haut risque. Votre fournisseur doit pouvoir expliquer comment les données ont été sélectionnées, nettoyées, testées et revues afin de limiter les biais discriminatoires et les erreurs systématiques.

Il ne s’agit pas d’une question théorique. Un outil entraîné sur des historiques de recrutement déséquilibrés peut reproduire des écarts anciens sous une apparence de neutralité technique. C’est précisément le type de risque que les directions générales, les DSI et les DAF doivent traiter avant qu’il ne devienne un sujet de responsabilité.

5. Le système est il enregistré dans la base UE et prêt sur le plan conformité ?

L’article 49 du règlement organise l’inscription des systèmes d’IA à haut risque concernés dans la base de données européenne. Pour un fournisseur, l’absence de visibilité sur cet enregistrement, sur la documentation de conformité et sur le statut de mise sur le marché doit être considérée comme un drapeau rouge.

Ici, un point de méthode est essentiel. Dire à un DRH qu’il lui sera automatiquement interdit d’utiliser tout outil absent de la base UE est trop simplificateur. En revanche, utiliser un ATS dont l’éditeur ne démontre pas sa conformité vous place dans une zone de risque inutile, surtout si l’outil influence réellement la sélection des candidats.

Tableau de vérification pour la DRH, la DSI et la DAF

Point à contrôlerCe qu’il faut obtenirSignal d’alerte
Usage IA dans l’ATSCartographie claire des fonctions IA activesRéponse vague du type IA partout dans le produit
Supervision humaineProcédure documentée, marge réelle de correction, journalisationSimple bouton valider sans explication
DocumentationNotice d’utilisation orientée conformité et usageManuel marketing ou FAQ commerciale
Données et biaisMéthodologie d’audit, tests, limites connuesRéponse générale sans preuve
Statut réglementairePreuves de conformité, informations sur l’enregistrement applicable, trajectoire de mise en conformitéAucun document, aucune date, aucune personne responsable

Ce que votre entreprise risque réellement :

Le premier risque est un risque de non conformité réglementaire. Le deuxième est un risque probatoire : en cas de contestation, vous devez démontrer que vous avez encadré l’outil, compris ses limites et conservé un contrôle humain réel.

Le troisième risque est opérationnel. Un ATS mal paramétré peut dégrader vos recrutements, créer des biais invisibles et fragiliser la confiance interne dans la fonction RH. Enfin, le risque réputationnel est loin d’être théorique quand un candidat estime avoir été filtré par une logique opaque.

Plan d’action avant le 2 août 2026

Vous n’avez pas besoin d’attendre une refonte complète de votre SI RH. En revanche, vous devez enclencher maintenant une revue structurée :

Les actions prioritaires

  1. Identifier toutes les fonctionnalités IA présentes dans votre ATS et vos outils de recrutement.
  2. Demander à chaque fournisseur une réponse écrite aux cinq questions clés.
  3. Vérifier la réalité de la supervision humaine dans vos processus internes.
  4. Revoir la documentation, les clauses contractuelles et les engagements de support conformité.
  5. Évaluer le risque RGPD, discrimination et gouvernance associé à chaque usage.
  6. Prévoir un plan de sécurisation ou de remplacement si le fournisseur ne répond pas clairement.

Une PME bien pilotée peut traiter ce sujet rapidement, à condition d’impliquer à la fois la DRH, la DSI, la direction juridique ou conformité et la direction financière. C’est typiquement un sujet transversal, avec une forte composante de preuve.

Les questions à envoyer dès aujourd’hui à votre éditeur ATS

Vous pouvez reprendre ce message tel quel dans un mail fournisseur.

Modèle de demande

Bonjour,

Dans le cadre de notre revue de conformité AI Act sur nos outils de recrutement, merci de nous confirmer par écrit les éléments suivants :

  1. Quelles fonctionnalités de votre solution reposent sur un système d’IA intervenant dans le tri, le scoring, la recommandation ou l’évaluation des candidats ?
  2. Pouvez vous préciser si votre solution analyse des émotions, expressions, intonations ou signaux comportementaux et, si oui, dans quel cadre ?
  3. Quelles mesures de supervision humaine effective avez vous prévues pour éviter une décision suivie automatiquement ?
  4. Pouvez vous nous transmettre la documentation d’utilisation conforme destinée au déployeur et préciser les limites connues du système ?
  5. Pouvez vous nous indiquer votre statut de conformité au titre de l’AI Act, les éléments relatifs à l’enregistrement applicable dans la base UE et le calendrier de mise en conformité complet ?

Merci de joindre les documents justificatifs disponibles.

Ce type de demande change tout. Il fait sortir la discussion du marketing produit pour la faire entrer dans le champ de la preuve.

Partager la publication :

Ces articles pourraient aussi vous intéresser :