Vào ngày 2 tháng 8 năm 2026, các yêu cầu rủi ro cao của Đạo luật AI EU có hiệu lực đầy đủ. Bất kỳ hệ thống AI nào được sử dụng cho tuyển dụng, sàng lọc hoặc đánh giá ứng viên — dù phân tích hồ sơ, chấm điểm bài đánh giá, thực hiện phỏng vấn hay xếp hạng ứng viên — đều thuộc danh mục quản lý nghiêm ngặt nhất của Đạo luật. Hình phạt cho vi phạm đạt €35 triệu hoặc 7% doanh thu toàn cầu hàng năm, tùy theo mức nào cao hơn.
Đây không phải mối lo ngại tương lai. Còn năm tháng nữa. Và với hầu hết các tổ chức sử dụng AI trong tuyển dụng, khoảng cách tuân thủ rộng hơn họ nghĩ.
Đạo luật AI EU nói gì về tuyển dụng
EU AI Act (Quy định 2024/1689) thiết lập khung pháp lý dựa trên rủi ro cho hệ thống AI trên mọi lĩnh vực. Điều 6 và Phụ lục III phân loại rõ ràng hệ thống AI được sử dụng trong "tuyển dụng hoặc tuyển chọn cá nhân, để đưa ra quyết định ảnh hưởng đến các điều khoản quan hệ lao động, hoặc phân công nhiệm vụ dựa trên hành vi cá nhân" là rủi ro cao.
Phân loại này áp dụng cho hầu hết mọi công cụ AI trong bộ công nghệ tuyển dụng hiện đại:
- Công cụ sàng lọc CV — bao gồm bộ lọc từ khóa ATS và trình phân tích CV dựa trên AI
- Nền tảng đánh giá — bài kiểm tra nhận thức, đánh giá tính cách, đánh giá kỹ năng
- Hệ thống phỏng vấn AI — phân tích video, phỏng vấn chatbot, chấm điểm tự động
- Engine xếp hạng ứng viên — thuật toán danh sách rút gọn, chấm điểm ghép nối, hệ thống đề xuất
- Chatbot và trợ lý AI — bất kỳ AI nào tương tác với ứng viên trong quá trình tuyển dụng
EU AI Act có phạm vi ngoài lãnh thổ. Nếu đầu ra hệ thống AI của bạn được sử dụng trong EU — nghĩa là nó đánh giá ứng viên là cư dân EU, hoặc cung cấp thông tin cho quyết định tuyển dụng tại văn phòng EU — Đạo luật áp dụng bất kể trụ sở công ty ở đâu. Các công ty Mỹ, Anh và Thụy Sĩ tuyển dụng tại EU đều thuộc phạm vi áp dụng đầy đủ.
Lịch trình: điều gì đã có hiệu lực
EU AI Act có hiệu lực từ ngày 1 tháng 8 năm 2024, với lịch trình thực thi theo giai đoạn:
Đã có hiệu lực: lệnh cấm nhận diện cảm xúc
Kể từ ngày 2 tháng 2 năm 2025, việc sử dụng hệ thống AI suy diễn cảm xúc từ dữ liệu sinh trắc học (biểu cảm khuôn mặt, giọng nói, ngôn ngữ cơ thể) trong bối cảnh nơi làm việc và tuyển dụng đã bị cấm. Điều này ảnh hưởng trực tiếp đến các nền tảng phỏng vấn video tuyên bố đánh giá "sự nhiệt tình", "sự tự tin" hoặc "phù hợp văn hóa" từ phân tích khuôn mặt. Bất kỳ nhà cung cấp nào vẫn cung cấp phát hiện cảm xúc trong phỏng vấn tuyển dụng đang hoạt động vi phạm Đạo luật.
Đã có hiệu lực: yêu cầu minh bạch
Kể từ ngày 2 tháng 8 năm 2025, các tổ chức phải thông báo cho ứng viên trước khi quy trình bắt đầu rằng AI đang được sử dụng trong đánh giá. Đây không phải là một ô đánh dấu — nó đòi hỏi công bố có ý nghĩa về:
- Hệ thống AI nào đang được sử dụng
- Dữ liệu nào đang được thu thập và xử lý
- Đầu ra AI ảnh hưởng đến quyết định tuyển dụng như thế nào
- Quyền của ứng viên yêu cầu xem xét bởi con người
Sắp tới tháng 8 năm 2026: tuân thủ rủi ro cao đầy đủ
Hạn chót tháng 8 năm 2026 là thời điểm các yêu cầu toàn diện cho hệ thống AI rủi ro cao có hiệu lực. Đây là ngọn núi tuân thủ mà hầu hết các tổ chức chưa chinh phục.
Bảy trụ cột của tuân thủ rủi ro cao
Điều 8-15 của EU AI Act định nghĩa bảy danh mục yêu cầu cho hệ thống AI rủi ro cao. Sau đây là ý nghĩa của từng điều đối với đội ngũ tuyển dụng:
1. Hệ thống quản lý rủi ro (Điều 9)
Bạn phải triển khai quy trình quản lý rủi ro liên tục trong suốt vòng đời hệ thống AI — không phải đánh giá một lần, mà là thực hành liên tục. Bao gồm:
- Xác định và phân tích các rủi ro đã biết và có thể dự đoán
- Ước tính rủi ro đối với sức khỏe, an toàn và quyền cơ bản
- Áp dụng các biện pháp giảm thiểu rủi ro
- Kiểm tra hệ thống so với các biện pháp đó
Đối với AI tuyển dụng, điều này có nghĩa là phải ghi nhận các rủi ro về thiên kiến, phân biệt đối xử, thiếu minh bạch và sai sót trong đánh giá ứng viên — và cho thấy bạn đang làm gì để khắc phục.
2. Quản trị dữ liệu (Điều 10)
Dữ liệu huấn luyện, xác nhận và kiểm tra phải đáp ứng tiêu chí chất lượng nghiêm ngặt. Đạo luật yêu cầu:
- Dữ liệu phù hợp, đại diện và không có lỗi
- Kiểm tra thiên kiến có thể có trong bộ dữ liệu huấn luyện
- Tài liệu hóa nguồn dữ liệu, phương pháp thu thập và bước xử lý
- Chú ý đặc biệt đến đặc điểm được bảo vệ (giới tính, sắc tộc, tuổi, khuyết tật)
3. Tài liệu kỹ thuật (Điều 11)
Trước khi bất kỳ hệ thống AI tuyển dụng nào được đưa ra thị trường hoặc triển khai, tài liệu kỹ thuật toàn diện phải được chuẩn bị. Bao gồm kiến trúc hệ thống, thông số kỹ thuật thiết kế, thuật toán sử dụng, yêu cầu dữ liệu, chỉ số hiệu suất và hạn chế đã biết.
4. Lưu trữ hồ sơ và nhật ký (Điều 12)
Hệ thống AI rủi ro cao phải tự động ghi nhật ký sự kiện trong suốt quá trình hoạt động. Đối với AI tuyển dụng, điều này có nghĩa là:
- Mọi điểm số, xếp hạng hoặc khuyến nghị do AI tạo đều phải có thể truy vết
- Nhật ký phải xác định dữ liệu đầu vào, phiên bản mô hình và đầu ra
- Hồ sơ phải được lưu giữ trong thời gian được pháp luật quy định (tối thiểu: thời gian tuyển dụng + thời gian kháng cáo)
- Nhật ký phải có thể truy cập để kiểm tra quy định
5. Minh bạch và thông tin (Điều 13)
Hệ thống AI tuyển dụng phải được thiết kế đủ minh bạch để nhà tuyển dụng có thể diễn giải đầu ra và sử dụng phù hợp. Bao gồm:
- Hướng dẫn rõ ràng cho nhà tuyển dụng về cách diễn giải đầu ra AI
- Tài liệu về khả năng và hạn chế của hệ thống
- Thông tin về mức độ chính xác và thiên kiến đã biết
- Điều kiện mà hệ thống có thể tạo ra kết quả không chính xác
6. Giám sát con người (Điều 14)
Đây là yêu cầu định hình cơ bản cách AI có thể được sử dụng trong tuyển dụng. Đạo luật quy định rằng hệ thống AI rủi ro cao phải được thiết kế để cho phép giám sát con người hiệu quả. Cụ thể:
- Một người có trình độ phải có thể hiểu đầu ra của AI
- Một người phải có thể ghi đè hoặc đảo ngược bất kỳ quyết định AI nào
- Hệ thống không được tạo ra đầu ra mà nhà tuyển dụng không thể xem xét có ý nghĩa
- Từ chối tự động ứng viên mà không có xem xét của con người là không tuân thủ
"Điều 14 không cấm AI tham gia tuyển dụng — nó cấm AI tuyển dụng tự chủ. Mọi khuyến nghị AI phải qua con người có thể hiểu, đặt câu hỏi và phủ quyết nó."
7. Độ chính xác, bền vững và an ninh mạng (Điều 15)
Hệ thống AI rủi ro cao phải đạt mức độ chính xác phù hợp với mục đích đã định, chống lại lỗi và không nhất quán, và được bảo vệ khỏi truy cập hoặc thao túng trái phép.
Bắt buộc giám sát thiên kiến
Mặc dù Đạo luật AI EU không sử dụng thuật ngữ "quy tắc bốn phần năm" (một tiêu chuẩn pháp lý Mỹ), các yêu cầu chống phân biệt đối xử của nó còn toàn diện hơn. Điều 10(2)(f) yêu cầu dữ liệu huấn luyện phải được kiểm tra về "các thiên kiến có thể ảnh hưởng đến sức khỏe và an toàn của cá nhân, có tác động tiêu cực đến quyền cơ bản." Dẫn giải 47 đề cập rõ ràng nguy cơ "duy trì các mô hình phân biệt đối xử lịch sử" trong việc làm.
Trong thực tế, điều này có nghĩa các tổ chức phải:
- Theo dõi tỷ lệ tuyển chọn theo giới tính, sắc tộc, tuổi và tình trạng khuyết tật
- Ghi nhận bất kỳ tác động bất lợi nào và các bước để giải quyết
- Tiến hành kiểm toán thiên kiến định kỳ về kết quả do AI tạo
- Cung cấp cho ứng viên quyền giải thích về quyết định bị ảnh hưởng bởi AI
"Tuân thủ" thực sự trông như thế nào
Nhiều nhà cung cấp tuyên bố "tuân thủ EU AI Act" mà không nêu rõ ý nghĩa cụ thể. Sau đây là danh sách kiểm tra thực tế để đánh giá liệu bộ công nghệ AI tuyển dụng của bạn có thực sự sẵn sàng cho tháng 8 năm 2026:
- Thông báo ứng viên: Ứng viên có được thông báo trước quy trình rằng AI được sử dụng không?
- Giám sát con người: Mọi khuyến nghị AI có được con người xem xét trước bất kỳ quyết định tuyển dụng nào không?
- Khả năng giải thích: Bạn có thể giải thích cho ứng viên tại sao họ đạt điểm như vậy không?
- Dấu vết kiểm toán: Mọi quyết định chấm điểm AI có được ghi nhật ký với đầu vào, phiên bản mô hình và đầu ra không?
- Giám sát thiên kiến: Bạn có theo dõi tỷ lệ tuyển chọn theo đặc điểm được bảo vệ theo thời gian thực không?
- Không nhận diện cảm xúc: Có công cụ nào trong bộ công cụ suy ra cảm xúc từ dữ liệu sinh trắc không?
- Quyền xem xét: Ứng viên có thể yêu cầu xem xét bởi con người đối với bất kỳ quyết định bị ảnh hưởng bởi AI không?
- Quản trị dữ liệu: Bạn có thể ghi lại nguồn gốc và chất lượng dữ liệu huấn luyện AI không?
- Tài liệu kỹ thuật: Kiến trúc, hiệu suất và hạn chế của hệ thống AI có được ghi lại không?
- Báo cáo sự cố: Bạn có quy trình báo cáo sự cố hệ thống AI cho cơ quan chức năng không?
Scovai được thiết kế với tuân thủ EU AI Act là nguyên tắc nền tảng, không phải bổ sung sau. Mọi khuyến nghị AI đều được chuyển đến nhà tuyển dụng trước bất kỳ quyết định tuyển dụng nào. Tất cả chấm điểm đều được ghi log với bản ghi kiểm tra đầy đủ. Giám sát thiên kiến theo dõi quy tắc bốn phần năm theo giới tính, tuổi và dân tộc trong thời gian thực. Ứng viên được thông báo trước về việc sử dụng AI, nhận được sự minh bạch về những gì đang được đo lường, và có thể yêu cầu giải thích điểm số. Integrity Shield cung cấp xác minh tính xác thực đánh giá mà không nhận dạng cảm xúc — hoàn toàn tuân thủ lệnh cấm tháng 2 năm 2025. Và toàn bộ nền tảng tuân thủ GDPR với quản lý đồng ý tích hợp, xuất dữ liệu và hỗ trợ quyền được xóa.
Kết nối GDPR
Đạo luật AI EU không thay thế GDPR — nó bổ sung thêm. Các tổ chức sử dụng AI trong tuyển dụng phải tuân thủ cả hai đồng thời. Các vấn đề GDPR chính cho công cụ AI tuyển dụng:
- Điều 22 (ra quyết định tự động): Ứng viên có quyền không phải chịu quyết định chỉ dựa trên xử lý tự động tạo ra hiệu lực pháp lý hoặc tương tự đáng kể. Điều này phù hợp với yêu cầu giám sát con người của Đạo luật AI.
- Cơ sở pháp lý: Xử lý dữ liệu ứng viên qua hệ thống AI yêu cầu cơ sở pháp lý — thường là lợi ích hợp pháp hoặc đồng ý rõ ràng.
- Tối thiểu hóa dữ liệu: Chỉ thu thập và xử lý dữ liệu cần thiết cho quyết định tuyển dụng.
- Quyền xóa: Ứng viên có thể yêu cầu xóa dữ liệu, bao gồm điểm số và hồ sơ do AI tạo.
- Đánh giá tác động bảo vệ dữ liệu (DPIA): Hệ thống AI tuyển dụng gần như chắc chắn kích hoạt yêu cầu DPIA theo Điều 35 GDPR.
Điều gì xảy ra nếu bạn chưa sẵn sàng
Cấu trúc phạt của Đạo luật AI EU được thiết kế để đảm bảo tuân thủ không phải tùy chọn:
- Hành vi bị cấm (ví dụ: nhận diện cảm xúc trong tuyển dụng): Lên đến €35 triệu hoặc 7% doanh thu toàn cầu hàng năm
- Không tuân thủ rủi ro cao (ví dụ: thiếu tài liệu, không giám sát con người): Lên đến €15 triệu hoặc 3% doanh thu toàn cầu hàng năm
- Thông tin sai cho cơ quan chức năng: Lên đến €7,5 triệu hoặc 1% doanh thu toàn cầu hàng năm
Ngoài tiền phạt, vi phạm tạo ra rủi ro kiện tụng. Ứng viên tin rằng mình bị phân biệt đối xử bởi công cụ AI tuyển dụng hiện có khung pháp lý rõ ràng để thách thức các quyết định đó. Các tòa án lao động trên toàn EU dự kiến sẽ tham chiếu AI Act làm tiêu chuẩn chăm sóc cho tuyển dụng có AI hỗ trợ.
Năm bước để chuẩn bị
Với năm tháng cho đến khi thực thi đầy đủ, sau đây là lộ trình thực tế cho đội ngũ tuyển dụng:
- 1. Kiểm toán bộ công cụ AI của bạn. Lập bản đồ mọi công cụ AI chạm vào quy trình tuyển dụng — bộ lọc ATS, nền tảng đánh giá, công cụ phỏng vấn, engine xếp hạng, chatbot. Xác định cái nào thuộc phân loại rủi ro cao.
- 2. Đánh giá nhà cung cấp của bạn. Yêu cầu mỗi nhà cung cấp cung cấp tài liệu tuân thủ Đạo luật AI EU. Nếu họ không thể cung cấp, họ chưa sẵn sàng — và theo đó, bạn cũng vậy.
- 3. Triển khai giám sát con người. Đảm bảo không có khuyến nghị AI nào dẫn đến từ chối ứng viên mà không có xem xét của con người. Ghi lại quy trình ra quyết định của con người.
- 4. Thiết lập giám sát thiên kiến. Bắt đầu theo dõi tỷ lệ tuyển chọn theo đặc điểm được bảo vệ. Nếu phát hiện tác động bất lợi, ghi lại các bước giảm thiểu.
- 5. Chuẩn bị tài liệu. Tạo hoặc yêu cầu tài liệu kỹ thuật cho mọi hệ thống AI trong bộ tuyển dụng của bạn. Bao gồm đánh giá rủi ro, thủ tục quản trị dữ liệu và kế hoạch ứng phó sự cố.
Kết luận
Đạo luật AI EU không phải là trở ngại cho tuyển dụng dựa trên AI — đó là khuôn khổ để thực hiện có trách nhiệm. Các tổ chức chấp nhận tuân thủ sẽ thấy mình có công cụ đáng tin cậy hơn, quyết định có thể bảo vệ hơn và trải nghiệm ứng viên tốt hơn. Những người bỏ qua nó đối mặt với phạt tiền, rủi ro pháp lý và rủi ro danh tiếng.
Câu hỏi không phải là có tuân thủ hay không. Mà là dẫn đầu hay chạy đuổi. Tháng 8 năm 2026 gần hơn bạn nghĩ.