Le 2 août 2026, les exigences à haut risque de l'EU AI Act entrent pleinement en vigueur. Tout système d'IA utilisé pour le recrutement, le filtrage ou l'évaluation des candidats — qu'il analyse des CV, note des évaluations, mène des entretiens ou classe des candidats — relève de la catégorie réglementaire la plus stricte de la loi. Les sanctions pour non-conformité atteignent 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial, selon le montant le plus élevé.
Ce n'est pas une préoccupation future. C'est dans cinq mois. Et pour la plupart des organisations utilisant l'IA dans le recrutement, l'écart de conformité est plus large qu'elles ne le pensent.
Ce que dit l'EU AI Act sur le recrutement
L'EU AI Act (Règlement 2024/1689) établit un cadre fondé sur le risque pour les systèmes d'IA dans tous les secteurs. L'Article 6 et l'Annexe III classent explicitement les systèmes d'IA utilisés pour le "recrutement ou la sélection de personnes physiques, pour prendre des décisions affectant les conditions de la relation de travail, ou pour l'attribution de tâches basée sur le comportement individuel" comme à haut risque.
Cette classification s'applique à pratiquement tous les outils d'IA de la pile de recrutement moderne :
- Outils de filtrage des CV — y compris les filtres ATS par mots-clés et les parseurs de CV basés sur l'IA
- Plateformes d'évaluation — tests cognitifs, évaluations de la personnalité, évaluations des compétences
- Systèmes d'entretien IA — analyse vidéo, entretiens par chatbot, notation automatisée
- Moteurs de classement des candidats — algorithmes de présélection, scoring de compatibilité, systèmes de recommandation
- Chatbots et assistants IA — tout système d'IA qui interagit avec les candidats pendant le processus de recrutement
L'EU AI Act a une portée extraterritoriale. Si le résultat de votre système d'IA est utilisé au sein de l'UE — c'est-à-dire qu'il évalue des candidats résidant dans l'UE, ou qu'il informe des décisions d'embauche dans des bureaux situés dans l'UE — la loi s'applique indépendamment du lieu où votre entreprise a son siège. Les entreprises américaines, britanniques et suisses recrutant dans l'UE sont entièrement concernées.
Le calendrier : ce qui est déjà en vigueur
L'EU AI Act est entré en vigueur le 1er août 2024, avec un calendrier d'implémentation progressif :
Déjà en vigueur : l'interdiction de la reconnaissance des émotions
Depuis le 2 février 2025, il est illégal d'utiliser des systèmes d'IA qui déduisent des émotions à partir de données biométriques (expressions faciales, ton de la voix, langage corporel) dans les contextes professionnels et de recrutement. Cela impacte directement les plateformes d'entretien vidéo qui prétendaient évaluer l'"enthousiasme", la "confiance" ou l'"adéquation culturelle" à partir de l'analyse faciale. Tout fournisseur proposant encore la détection des émotions dans les entretiens d'embauche opère en violation de la loi.
Déjà en vigueur : les exigences de transparence
Depuis le 2 août 2025, les organisations doivent informer les candidats avant le début du processus que l'IA est utilisée dans leur évaluation. Ce n'est pas une simple case à cocher — cela nécessite une divulgation significative de :
- Quels systèmes d'IA sont utilisés
- Quelles données sont collectées et traitées
- Comment les résultats de l'IA influencent les décisions d'embauche
- Le droit du candidat à demander une révision humaine
À venir en août 2026 : conformité complète à haut risque
L'échéance d'août 2026 est le moment où les exigences complètes pour les systèmes d'IA à haut risque entrent en vigueur. C'est la montagne de conformité que la plupart des organisations n'ont pas encore gravie.
Les sept piliers de la conformité à haut risque
Les Articles 8-15 de l'EU AI Act définissent sept catégories d'exigences pour les systèmes d'IA à haut risque. Voici ce que chacune signifie pour les équipes de recrutement :
1. Système de gestion des risques (Article 9)
Vous devez mettre en place un processus continu de gestion des risques tout au long du cycle de vie du système d'IA — pas une évaluation ponctuelle, mais une pratique permanente. Cela comprend :
- L'identification et l'analyse des risques connus et prévisibles
- L'estimation des risques pour la santé, la sécurité et les droits fondamentaux
- L'adoption de mesures d'atténuation des risques
- Le test du système par rapport à ces mesures
Pour l'IA dans le recrutement, cela signifie documenter les risques de biais, de discrimination, d'opacité et d'erreurs dans l'évaluation des candidats — et montrer ce que vous faites à ce sujet.
2. Gouvernance des données (Article 10)
Les données d'entraînement, de validation et de test doivent répondre à des critères de qualité stricts. La loi exige :
- Des données qui sont pertinentes, représentatives et exemptes d'erreurs
- Un examen des biais possibles dans les ensembles de données d'entraînement
- La documentation des sources de données, des méthodes de collecte et des étapes de traitement
- Une attention particulière aux caractéristiques protégées (genre, ethnicité, âge, handicap)
3. Documentation technique (Article 11)
Avant que tout système d'IA de recrutement soit mis sur le marché ou déployé, une documentation technique complète doit être préparée. Celle-ci comprend l'architecture du système, les spécifications de conception, les algorithmes utilisés, les exigences en matière de données, les métriques de performance et les limitations connues.
4. Tenue de registres et journalisation (Article 12)
Les systèmes d'IA à haut risque doivent automatiquement enregistrer les événements tout au long de leur fonctionnement. Pour l'IA dans le recrutement, cela signifie :
- Chaque score, classement ou recommandation générés par l'IA doit être traçable
- Les journaux doivent identifier les données d'entrée, la version du modèle et la sortie
- Les enregistrements doivent être conservés pendant la durée spécifiée par la loi applicable (minimum : durée du processus de recrutement + période d'appel)
- Les journaux doivent être accessibles pour l'inspection réglementaire
5. Transparence et information (Article 13)
Les systèmes d'IA de recrutement doivent être conçus pour être suffisamment transparents afin que les déployeurs (employeurs) puissent interpréter les résultats et les utiliser de manière appropriée. Cela comprend :
- Des instructions claires pour les opérateurs humains sur la façon d'interpréter les résultats de l'IA
- La documentation des capacités et des limitations du système
- Des informations sur le niveau de précision et les biais connus
- Les conditions dans lesquelles le système peut produire des résultats incorrects
6. Supervision humaine (Article 14)
C'est l'exigence qui façonne fondamentalement la façon dont l'IA peut être utilisée dans le recrutement. La loi impose que les systèmes d'IA à haut risque doivent être conçus pour permettre une supervision humaine efficace. Plus précisément :
- Un être humain qualifié doit être capable de comprendre les résultats de l'IA
- Un être humain doit être capable de contester ou annuler toute décision de l'IA
- Le système ne doit pas produire de résultats qu'un opérateur humain ne peut pas examiner de manière significative
- Le rejet automatique des candidats sans révision humaine est explicitement non conforme
"L'Article 14 n'interdit pas à l'IA de participer au recrutement — il interdit à l'IA de le faire de manière autonome. Chaque recommandation de l'IA doit passer par un être humain qui peut la comprendre, la questionner et l'annuler."
7. Précision, robustesse et cybersécurité (Article 15)
Les systèmes d'IA à haut risque doivent atteindre un niveau de précision approprié pour leur usage prévu, être résilients aux erreurs et aux incohérences, et être protégés contre les accès ou manipulations non autorisés.
Le mandat de surveillance des biais
Bien que l'EU AI Act n'utilise pas le terme "règle des quatre cinquièmes" (un standard juridique américain), ses exigences en matière de non-discrimination sont encore plus complètes. L'Article 10(2)(f) exige que les données d'entraînement soient examinées pour "les biais possibles susceptibles d'affecter la santé et la sécurité des personnes, d'avoir un impact négatif sur les droits fondamentaux". Le Considérant 47 fait explicitement référence au risque de "perpétuer des schémas historiques de discrimination" dans l'emploi.
En pratique, cela signifie que les organisations doivent :
- Surveiller les taux de sélection selon le genre, l'ethnicité, l'âge et le statut de handicap
- Documenter tout impact disparate et les mesures prises pour y remédier
- Réaliser des audits périodiques des biais sur les résultats générés par l'IA
- Fournir aux candidats un droit d'explication pour les décisions influencées par l'IA
À quoi ressemble vraiment la conformité
De nombreux fournisseurs revendiquent la "conformité à l'EU AI Act" sans préciser ce qu'ils entendent par là. Voici une liste de contrôle pratique pour évaluer si votre pile d'IA de recrutement est vraiment prête pour août 2026 :
- Notification des candidats : Les candidats sont-ils informés avant le processus que l'IA est utilisée ?
- Supervision humaine : Chaque recommandation de l'IA passe-t-elle à un être humain avant toute décision d'embauche ?
- Explicabilité : Pouvez-vous expliquer à un candidat pourquoi il a obtenu le score qu'il a obtenu ?
- Piste d'audit : Chaque décision de scoring de l'IA est-elle enregistrée avec les entrées, la version du modèle et les sorties ?
- Surveillance des biais : Suivez-vous les taux de sélection selon les caractéristiques protégées en temps réel ?
- Pas de reconnaissance des émotions : Un outil de votre pile déduit-il des émotions à partir de données biométriques ?
- Droit à la révision : Les candidats peuvent-ils demander une révision humaine de toute décision influencée par l'IA ?
- Gouvernance des données : Pouvez-vous documenter la provenance et la qualité de vos données d'entraînement IA ?
- Documentation technique : L'architecture, les performances et les limitations de votre système d'IA sont-elles documentées ?
- Signalement des incidents : Avez-vous un processus pour signaler les dysfonctionnements du système d'IA aux autorités ?
Scovai a été conçu avec la conformité à l'EU AI Act comme principe fondateur, et non comme une réflexion après coup. Chaque recommandation de l'IA passe à un recruteur humain avant toute décision d'embauche. Tous les scorings sont enregistrés avec des pistes d'audit complètes. La surveillance des biais suit la règle des quatre cinquièmes pour le genre, l'âge et l'ethnicité en temps réel. Les candidats sont informés à l'avance de l'utilisation de l'IA, reçoivent de la transparence sur ce qui est mesuré, et peuvent demander des explications sur leurs scores. L'Integrity Shield fournit la vérification de l'authenticité des évaluations sans reconnaissance des émotions — entièrement conforme à l'interdiction de février 2025. Et toute la plateforme est conforme au GDPR avec une gestion intégrée du consentement, l'exportation des données et le support du droit à l'effacement.
Le lien avec le GDPR
L'EU AI Act ne remplace pas le GDPR — il s'y superpose. Les organisations utilisant l'IA dans le recrutement doivent se conformer aux deux simultanément. Principales considérations GDPR pour les outils d'IA de recrutement :
- Article 22 (prise de décision automatisée) : Les candidats ont le droit de ne pas être soumis à des décisions basées uniquement sur un traitement automatisé produisant des effets juridiques ou significativement similaires. Cela s'aligne sur l'exigence de supervision humaine de l'AI Act.
- Base légale : Le traitement des données des candidats par des systèmes d'IA nécessite une base légale — généralement l'intérêt légitime ou le consentement explicite.
- Minimisation des données : Ne collecter et traiter que les données nécessaires à la décision d'embauche.
- Droit à l'effacement : Les candidats peuvent demander la suppression de leurs données, y compris les scores et profils générés par l'IA.
- Analyse d'impact relative à la protection des données (DPIA) : Les systèmes d'IA de recrutement déclenchent presque certainement l'exigence d'une DPIA en vertu de l'Article 35 du GDPR.
Ce qui se passe si vous n'êtes pas prêt
La structure des sanctions de l'EU AI Act est conçue pour garantir que la conformité n'est pas optionnelle :
- Pratiques interdites (ex. reconnaissance des émotions dans le recrutement) : Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial
- Non-conformité à haut risque (ex. documentation manquante, absence de supervision humaine) : Jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial
- Informations incorrectes aux autorités : Jusqu'à 7,5 millions d'euros ou 1 % du chiffre d'affaires annuel mondial
Au-delà des amendes, la non-conformité crée un risque de contentieux. Les candidats qui estiment avoir été victimes de discrimination par des outils d'IA de recrutement disposent désormais d'un cadre réglementaire clair pour contester ces décisions. Les tribunaux du travail à travers l'UE devraient se référer à l'AI Act comme standard de diligence pour le recrutement assisté par l'IA.
Cinq étapes pour se préparer
Avec cinq mois avant la pleine application, voici une feuille de route pratique pour les équipes de recrutement :
- 1. Auditez votre pile d'IA. Cartographiez chaque outil d'IA qui touche votre processus de recrutement — filtres ATS, plateformes d'évaluation, outils d'entretien, moteurs de classement, chatbots. Déterminez lesquels relèvent de la classification à haut risque.
- 2. Évaluez vos fournisseurs. Demandez à chaque fournisseur sa documentation de conformité à l'EU AI Act. S'ils ne peuvent pas la fournir, ils ne sont pas prêts — et par extension, vous non plus.
- 3. Mettez en place la supervision humaine. Assurez-vous qu'aucune recommandation générée par l'IA ne mène au rejet d'un candidat sans révision humaine. Documentez le processus de décision humaine.
- 4. Établissez la surveillance des biais. Commencez à suivre les taux de sélection selon les caractéristiques protégées. Si vous constatez un impact disparate, documentez vos mesures d'atténuation.
- 5. Préparez la documentation. Créez ou demandez une documentation technique pour chaque système d'IA de votre pile de recrutement. Incluez les évaluations des risques, les procédures de gouvernance des données et les plans de réponse aux incidents.
L'essentiel à retenir
L'EU AI Act n'est pas un obstacle au recrutement basé sur l'IA — c'est un cadre pour le faire de manière responsable. Les organisations qui embrassent la conformité se retrouveront avec des outils plus fiables, des décisions plus défendables et de meilleures expériences candidats. Celles qui l'ignorent font face à des pénalités financières, à une exposition juridique et à un risque de réputation.
La question n'est pas de savoir s'il faut se conformer. C'est de savoir s'il faut mener ou courir. Août 2026 est plus proche que vous ne le pensez.