指南 2026年3月1日 11分钟阅读

EU AI Act与招聘:招聘团队在2026年8月前需要了解的内容

SL

Dr. Sarah Liu

研究主管,Scovai

EU AI Act与招聘:招聘团队在2026年8月前需要了解的内容

2026年8月2日,EU AI Act针对高风险系统的要求将全面生效。任何用于招募、筛选或评估候选人的AI系统——无论是解析简历、评分测试、开展面试还是对申请人进行排名——均属于该法案最严格的监管类别。不合规的罚款最高可达3500万欧元或全球年营业额的7%,以较高者为准。

这并非遥远的未来。距今只剩五个月。对于大多数在招聘中使用AI的组织而言,合规差距比他们意识到的要大得多。

EU AI Act对招聘的规定

EU AI Act(Regulation 2024/1689)为所有行业的AI系统建立了基于风险的框架。Article 6和Annex III明确将用于"招募或选拔自然人、作出影响劳动关系条款的决定,或基于个人行为进行任务分配"的AI系统归类为高风险

这一分类几乎适用于现代招聘技术栈中的每一个AI工具:

  • 简历筛选工具——包括ATS关键词过滤器和AI驱动的CV解析器
  • 评估平台——认知测试、性格评估、技能评估
  • AI面试系统——视频分析、聊天机器人面试、自动评分
  • 候选人排名引擎——入围算法、匹配评分、推荐系统
  • 聊天机器人和AI助手——在招聘过程中与候选人互动的任何AI
域外适用范围

EU AI Act具有域外适用范围。如果您的AI系统的输出结果在欧盟境内使用——即评估欧盟居民候选人,或为欧盟办事处的招聘决策提供依据——无论您的公司总部位于何处,该法案均适用。在欧盟招聘的美国、英国和瑞士公司均完全受其约束。

时间表:哪些已经生效

EU AI Act于2024年8月1日正式生效,并按阶段实施:

Feb 2025
禁止在招聘面试中使用情绪识别
Aug 2025
透明度和数据治理规则生效
Aug 2026
全面高风险要求——重要截止日期
€35M
不合规的最高罚款

已生效:情绪识别禁令

自2025年2月2日起,在工作场所和招聘场景中使用从生物特征数据(面部表情、声音语调、肢体语言)推断情绪的AI系统已属违法。这直接影响了那些声称通过面部分析评估"积极性"、"自信心"或"文化契合度"的视频面试平台。任何仍在招聘面试中提供情绪检测的供应商均违反了该法案。

已生效:透明度要求

自2025年8月2日起,组织必须在流程开始之前告知候选人AI正在用于其评估。这不是走过场——需要对以下内容进行有实质意义的披露:

  • 正在使用哪些AI系统
  • 正在收集和处理哪些数据
  • AI输出如何影响招聘决策
  • 候选人要求人工审核的权利

即将到来的2026年8月:全面高风险合规

2026年8月的截止日期是高风险AI系统综合要求生效的时间。这是大多数组织尚未攀登的合规高峰。

高风险合规的七大支柱

EU AI Act的Articles 8-15定义了高风险AI系统的七类要求。以下是每项要求对招聘团队的意义:

1. 风险管理系统(Article 9)

您必须在AI系统的整个生命周期内实施持续的风险管理流程——不是一次性评估,而是持续的实践。这包括:

  • 识别和分析已知及可预见的风险
  • 评估对健康、安全和基本权利的风险
  • 采取风险缓解措施
  • 针对这些措施对系统进行测试

对于招聘AI而言,这意味着记录候选人评估中偏见、歧视、不透明和错误的风险——并说明您正在采取哪些措施。

2. 数据治理(Article 10)

训练数据、验证数据和测试数据必须符合严格的质量标准。该法案要求:

  • 数据必须相关、具有代表性且无错误
  • 审查训练数据集中可能存在的偏见
  • 记录数据来源、收集方法和处理步骤
  • 特别关注受保护特征(性别、种族、年龄、残疾)

3. 技术文档(Article 11)

在任何AI招聘系统投放市场或部署之前,必须准备全面的技术文档。这包括系统架构、设计规范、所用算法、数据要求、性能指标和已知限制。

4. 记录保存和日志(Article 12)

高风险AI系统必须在整个运行过程中自动记录事件日志。对于招聘AI,这意味着:

  • 每一个AI生成的评分、排名或推荐必须可追溯
  • 日志必须标识输入数据、模型版本和输出结果
  • 记录必须按适用法律规定的期限保存(最短:招聘流程持续时间+申诉期)
  • 日志必须可供监管检查

5. 透明度和信息(Article 13)

AI招聘系统的设计必须足够透明,使部署者(雇主)能够解释输出结果并适当使用。这包括:

  • 为人工操作员提供如何解释AI输出的明确说明
  • 系统能力和局限性的文档
  • 关于准确度水平和已知偏见的信息
  • 系统可能产生错误结果的条件

6. 人工监督(Article 14)

这是从根本上决定AI如何在招聘中使用的要求。该法案规定高风险AI系统必须设计为允许有效的人工监督。具体而言:

  • 合格的人工操作员必须能够理解AI的输出
  • 人工操作员必须能够推翻或撤销任何AI决定
  • 系统不得产生人工操作员无法有效审查的输出
  • 未经人工审核自动拒绝候选人明确不合规

"Article 14不是禁止AI参与招聘——而是禁止AI自主招聘。每一条AI建议都必须经过一个能够理解、质疑和否决它的人。"

7. 准确性、稳健性和网络安全(Article 15)

高风险AI系统必须达到与预期用途相适应的准确性水平,能够抵御错误和不一致性,并防止未经授权的访问或操纵。

偏见监控要求

虽然EU AI Act没有使用"五分之四规则"这一术语(这是美国的法律标准),但其对非歧视的要求更为全面。Article 10(2)(f)要求对训练数据进行审查,以识别"可能影响人员健康和安全、对基本权利产生负面影响的偏见"。Recital 47明确提到了就业中"延续历史性歧视模式"的风险。

在实践中,这意味着组织必须:

  • 监测性别、种族、年龄和残疾状况方面的选拔率
  • 记录任何差异性影响及为解决该问题所采取的步骤
  • 对AI生成结果进行定期偏见审计
  • 为候选人提供就受AI影响的决定获取解释的权利

"合规"的真实含义

许多供应商声称"符合EU AI Act",却没有说明具体含义。以下是评估您的招聘AI技术栈是否真正准备好迎接2026年8月的实用清单:

  • 候选人通知:在流程开始前是否告知候选人使用了AI?
  • 人工监督:每一条AI建议是否在任何招聘决策之前都经过人工审核?
  • 可解释性:您能向候选人解释为什么他们获得了这样的评分吗?
  • 审计记录:每一个AI评分决定是否都记录了输入、模型版本和输出?
  • 偏见监控:您是否实时跟踪受保护特征的选拔率?
  • 无情绪识别:您的技术栈中是否有任何工具从生物特征数据推断情绪?
  • 审核权利:候选人能否请求对任何受AI影响的决定进行人工审核?
  • 数据治理:您能否记录AI训练数据的来源和质量?
  • 技术文档:您的AI系统的架构、性能和限制是否有文档记录?
  • 事件报告:您是否有向主管机构报告AI系统故障的流程?
Scovai的合规方法

Scovai在设计之初就将EU AI Act合规作为基本原则,而非事后补救。每一条AI建议在任何招聘决策之前都会流转给人工招聘人员。所有评分都有完整的审计记录。偏见监控实时跟踪性别、年龄和种族方面的五分之四规则。候选人预先被告知AI的使用情况,对所测量的内容保持透明,并可请求解释其评分。Integrity Shield在不使用情绪识别的情况下提供评估真实性验证——完全符合2025年2月的禁令。整个平台符合GDPR要求,内置同意管理、数据导出和支持删除权。

GDPR的关联

EU AI Act不取代GDPR——而是在其之上叠加。在招聘中使用AI的组织必须同时遵守两者。AI招聘工具的关键GDPR考虑事项:

  • Article 22(自动化决策):候选人有权不受仅基于自动化处理的决定的约束,前提是这些决定产生法律效力或类似的重大影响。这与AI法案的人工监督要求相一致。
  • 合法依据:通过AI系统处理候选人数据需要合法依据——通常是合法利益或明确同意。
  • 数据最小化:只收集和处理招聘决策所必需的数据。
  • 删除权:候选人可以请求删除其数据,包括AI生成的评分和档案。
  • 数据保护影响评估(DPIA):AI招聘系统几乎肯定会触发GDPR Article 35下进行DPIA的要求。

如果您未准备好会发生什么

EU AI Act的处罚结构旨在确保合规不是可选项:

  • 禁止的做法(例如,招聘中的情绪识别):最高3500万欧元或全球年营业额的7%
  • 高风险不合规(例如,缺少文档、无人工监督):最高1500万欧元或全球年营业额的3%
  • 向主管机构提供不实信息:最高750万欧元或全球年营业额的1%

除罚款外,不合规还会产生诉讼风险。认为自己受到AI招聘工具歧视的候选人现在有了明确的监管框架来挑战这些决定。欧盟各地的劳动法庭预计将把AI法案作为AI辅助招聘的注意义务标准加以引用。

准备就绪的五个步骤

距全面执法还有五个月,以下是招聘团队的实用路线图:

  • 1. 审计您的AI技术栈。梳理招聘流程中涉及的每一个AI工具——ATS过滤器、评估平台、面试工具、排名引擎、聊天机器人。确定哪些属于高风险分类。
  • 2. 评估您的供应商。向每个供应商索取其EU AI Act合规文档。如果他们无法提供,说明他们尚未准备好——而你也因此尚未准备好。
  • 3. 实施人工监督。确保没有任何AI生成的建议会在未经人工审核的情况下导致候选人被拒绝。记录人工决策过程。
  • 4. 建立偏见监控。开始跟踪受保护特征的选拔率。如果发现差异性影响,记录您的缓解步骤。
  • 5. 准备文档。为招聘技术栈中的每个AI系统创建或索取技术文档。包括风险评估、数据治理程序和事件响应计划。

结论

EU AI Act不是AI驱动招聘的障碍——而是负责任地推行AI招聘的框架。拥抱合规的组织将发现自己拥有更可信赖的工具、更具可辩护性的决策和更好的候选人体验。忽视它的组织将面临经济处罚、法律风险和声誉损失。

问题不在于是否合规,而在于是引领还是仓促应对。2026年8月比你想象的更近。

Ready to go beyond the CV?

Scovai's AI-powered Talent Passport reveals what resumes can't — personality, potential, and true job fit.