Руководство 1 марта 2026 11 мин чтения

EU AI Act в рекрутинге: что нужно знать командам по найму до августа 2026

SL

Dr. Sarah Liu

Руководитель исследований, Scovai

EU AI Act в рекрутинге: что нужно знать командам по найму до августа 2026

2 августа 2026 года вступят в полную силу требования EU AI Act к высокорисковым системам. Любая система ИИ, используемая для подбора, отбора или оценки кандидатов — будь то парсинг резюме, оценка тестов, проведение интервью или ранжирование соискателей — подпадает под наиболее строгую регуляторную категорию Закона. Санкции за несоблюдение достигают €35 миллионов или 7% годового мирового оборота — в зависимости от того, что выше.

Это не далёкое будущее. До него осталось пять месяцев. И для большинства организаций, использующих ИИ в найме, разрыв в соответствии требованиям шире, чем они думают.

Что EU AI Act говорит о найме

EU AI Act (Regulation 2024/1689) устанавливает риск-ориентированную систему для ИИ-систем во всех секторах. Статья 6 и Приложение III явно классифицируют ИИ-системы, используемые для «подбора или отбора физических лиц, принятия решений, влияющих на условия трудовых отношений, или распределения задач на основе индивидуального поведения», как высокорисковые.

Эта классификация применяется практически к каждому инструменту ИИ в современном стеке рекрутинга:

  • Инструменты скрининга резюме — включая фильтры ключевых слов в ATS и ИИ-парсеры CV
  • Оценочные платформы — когнитивные тесты, личностные оценки, проверки навыков
  • Системы ИИ-интервью — анализ видео, чат-боты для интервью, автоматическая оценка
  • Движки ранжирования кандидатов — алгоритмы шорт-листинга, оценка соответствия, системы рекомендаций
  • Чат-боты и ИИ-ассистенты — любой ИИ, взаимодействующий с кандидатами в процессе найма
Экстерриториальное действие

EU AI Act имеет экстерриториальное действие. Если результат работы вашей ИИ-системы используется в ЕС — то есть она оценивает кандидатов, являющихся резидентами ЕС, или влияет на решения о найме в офисах ЕС — Закон применяется независимо от местонахождения штаб-квартиры вашей компании. Компании из США, Великобритании и Швейцарии, нанимающие сотрудников в ЕС, подпадают под его действие в полной мере.

Хронология: что уже действует

EU AI Act вступил в силу 1 августа 2024 года с поэтапным графиком внедрения:

Feb 2025
Запрет на распознавание эмоций на собеседованиях
Aug 2025
Правила прозрачности и управления данными активны
Aug 2026
Полные требования к высокорисковым системам — главный дедлайн
€35M
Максимальный штраф за несоблюдение

Уже действует: запрет на распознавание эмоций

С 2 февраля 2025 года незаконно использовать ИИ-системы, делающие выводы об эмоциях на основе биометрических данных (мимика, тон голоса, язык тела) в рабочих и рекрутинговых контекстах. Это напрямую затрагивает платформы видео-интервью, заявлявшие о способности оценивать «энтузиазм», «уверенность» или «культурное соответствие» по анализу лица. Любой вендор, продолжающий предлагать распознавание эмоций на собеседованиях, нарушает Закон.

Уже действует: требования прозрачности

С 2 августа 2025 года организации обязаны информировать кандидатов до начала процесса о том, что в их оценке используется ИИ. Это не просто галочка — требуется значимое раскрытие информации о:

  • Какие ИИ-системы используются
  • Какие данные собираются и обрабатываются
  • Как результаты ИИ влияют на решения о найме
  • Праве кандидата запросить проверку человеком

Август 2026: полное соответствие требованиям к высокорисковым системам

Дедлайн в августе 2026 года — это когда вступят в силу комплексные требования к высокорисковым ИИ-системам. Это та гора соответствия, на которую большинство организаций ещё не начали взбираться.

Семь столпов соответствия для высокорисковых систем

Статьи 8-15 EU AI Act определяют семь категорий требований для высокорисковых ИИ-систем. Вот что каждая означает для команд по найму:

1. Система управления рисками (Статья 9)

Вы должны внедрить непрерывный процесс управления рисками на протяжении всего жизненного цикла ИИ-системы — не единовременную оценку, а постоянную практику. Это включает:

  • Выявление и анализ известных и предсказуемых рисков
  • Оценку рисков для здоровья, безопасности и основных прав
  • Принятие мер по снижению рисков
  • Тестирование системы на соответствие этим мерам

Применительно к ИИ в найме это означает документирование рисков предвзятости, дискриминации, непрозрачности и ошибок в оценке кандидатов — и демонстрацию того, что вы с ними делаете.

2. Управление данными (Статья 10)

Данные для обучения, валидации и тестирования должны соответствовать строгим критериям качества. Закон требует:

  • Данных, которые являются релевантными, репрезентативными и свободными от ошибок
  • Проверки обучающих наборов данных на возможные предвзятости
  • Документирования источников данных, методов сбора и шагов обработки
  • Особого внимания к защищённым характеристикам (пол, этническая принадлежность, возраст, инвалидность)

3. Техническая документация (Статья 11)

До вывода на рынок или развёртывания любой ИИ-системы для найма должна быть подготовлена исчерпывающая техническая документация. Она включает архитектуру системы, спецификации дизайна, используемые алгоритмы, требования к данным, показатели производительности и известные ограничения.

4. Ведение записей и журналирование (Статья 12)

Высокорисковые ИИ-системы должны автоматически вести журнал событий на протяжении всей работы. Для ИИ в найме это означает:

  • Каждая оценка, ранжирование или рекомендация, созданные ИИ, должны быть отслеживаемы
  • Журналы должны идентифицировать входные данные, версию модели и результат
  • Записи должны храниться в течение срока, установленного применимым законодательством (минимум: продолжительность процесса найма + период апелляции)
  • Журналы должны быть доступны для регуляторной проверки

5. Прозрачность и информирование (Статья 13)

ИИ-системы для найма должны быть разработаны так, чтобы быть достаточно прозрачными для того, чтобы операторы (работодатели) могли интерпретировать результаты и использовать их надлежащим образом. Это включает:

  • Чёткие инструкции для операторов-людей о том, как интерпретировать результаты ИИ
  • Документацию о возможностях и ограничениях системы
  • Информацию об уровне точности и известных предвзятостях
  • Условия, при которых система может давать неверные результаты

6. Надзор человека (Статья 14)

Это требование принципиально определяет, как ИИ может использоваться в найме. Закон предписывает, что высокорисковые ИИ-системы должны быть разработаны так, чтобы обеспечивать эффективный надзор человека. В частности:

  • Квалифицированный человек должен уметь понимать результаты ИИ
  • Человек должен иметь возможность отменить или пересмотреть любое решение ИИ
  • Система не должна выдавать результаты, которые оператор-человек не может осмысленно проверить
  • Автоматический отказ кандидатам без проверки человеком явно не соответствует требованиям

«Статья 14 не запрещает ИИ в найме — она запрещает ИИ нанимать автономно. Каждая рекомендация ИИ должна проходить через человека, который может её понять, поставить под сомнение и отклонить.»

7. Точность, надёжность и кибербезопасность (Статья 15)

Высокорисковые ИИ-системы должны достигать надлежащего уровня точности для своей предполагаемой цели, быть устойчивы к ошибкам и несоответствиям, а также защищены от несанкционированного доступа или манипуляций.

Мандат на мониторинг предвзятости

Хотя EU AI Act не использует термин «правило четырёх пятых» (американский правовой стандарт), его требования к недискриминации ещё более всеобъемлющи. Статья 10(2)(f) требует проверки обучающих данных на «возможные предвзятости, которые могут негативно сказаться на здоровье и безопасности людей, оказать отрицательное влияние на основные права». Пункт 47 преамбулы прямо указывает на риск «воспроизведения исторических закономерностей дискриминации» в сфере занятости.

На практике это означает, что организации должны:

  • Отслеживать показатели отбора по полу, этнической принадлежности, возрасту и статусу инвалидности
  • Документировать любое неравное воздействие и принятые меры по его устранению
  • Проводить периодические аудиты предвзятости результатов, генерируемых ИИ
  • Предоставлять кандидатам право на объяснение решений, принятых под влиянием ИИ

Как выглядит реальное соответствие требованиям

Многие вендоры заявляют о «соответствии EU AI Act», не уточняя, что они имеют в виду. Вот практический чек-лист для оценки готовности вашего ИИ-стека для найма к августу 2026 года:

  • Уведомление кандидатов: Информируются ли кандидаты до начала процесса об использовании ИИ?
  • Надзор человека: Поступает ли каждая рекомендация ИИ к человеку до принятия решения о найме?
  • Объяснимость: Можете ли вы объяснить кандидату почему он получил именно такую оценку?
  • Журнал аудита: Фиксируется ли каждое решение ИИ о выставлении оценки с входными данными, версией модели и результатами?
  • Мониторинг предвзятости: Отслеживаете ли вы показатели отбора по защищённым характеристикам в режиме реального времени?
  • Отсутствие распознавания эмоций: Есть ли в вашем стеке инструменты, делающие выводы об эмоциях по биометрическим данным?
  • Право на проверку: Могут ли кандидаты запросить проверку любого решения, принятого под влиянием ИИ, человеком?
  • Управление данными: Можете ли вы задокументировать происхождение и качество данных для обучения вашего ИИ?
  • Техническая документация: Задокументированы ли архитектура, производительность и ограничения вашей ИИ-системы?
  • Отчётность об инцидентах: Есть ли у вас процесс сообщения о сбоях ИИ-системы властям?
Подход Scovai к соответствию требованиям

Scovai был разработан с соответствием EU AI Act в качестве основополагающего принципа, а не запоздалой мысли. Каждая рекомендация ИИ поступает к рекрутеру-человеку до принятия любого решения о найме. Все оценки фиксируются с полными журналами аудита. Мониторинг предвзятости отслеживает правило четырёх пятых по полу, возрасту и этнической принадлежности в режиме реального времени. Кандидаты заблаговременно информируются об использовании ИИ, получают прозрачность в отношении того, что измеряется, и могут запросить объяснение своих оценок. Integrity Shield обеспечивает верификацию подлинности оценки без распознавания эмоций — полностью соответствует запрету февраля 2025 года. И вся платформа соответствует требованиям GDPR со встроенным управлением согласиями, экспортом данных и поддержкой права на удаление.

Связь с GDPR

EU AI Act не заменяет GDPR — он накладывается поверх него. Организации, использующие ИИ в найме, должны одновременно соответствовать обоим. Ключевые соображения GDPR для ИИ-инструментов найма:

  • Статья 22 (автоматизированное принятие решений): Кандидаты имеют право не быть объектом решений, основанных исключительно на автоматизированной обработке, которые влекут юридические или аналогичные значимые последствия. Это согласуется с требованием о надзоре человека по ИИ-закону.
  • Правовое основание: Обработка данных кандидатов через ИИ-системы требует правового основания — как правило, законного интереса или явного согласия.
  • Минимизация данных: Собирайте и обрабатывайте только данные, необходимые для решения о найме.
  • Право на удаление: Кандидаты могут запросить удаление своих данных, включая оценки и профили, созданные ИИ.
  • Оценка воздействия на защиту данных (DPIA): ИИ-системы найма почти наверняка запускают требование о проведении DPIA в соответствии со Статьёй 35 GDPR.

Что произойдёт, если вы не готовы

Структура санкций EU AI Act призвана обеспечить обязательность соблюдения требований:

  • Запрещённые практики (например, распознавание эмоций при найме): до €35 миллионов или 7% годового мирового оборота
  • Несоответствие для высокорисковых систем (например, отсутствие документации, отсутствие надзора человека): до €15 миллионов или 3% годового мирового оборота
  • Предоставление недостоверной информации властям: до €7,5 миллионов или 1% годового мирового оборота

Помимо штрафов, несоблюдение создаёт риск судебных разбирательств. Кандидаты, считающие, что подверглись дискриминации со стороны ИИ-инструментов найма, теперь имеют чёткую нормативную базу для оспаривания этих решений. Ожидается, что трудовые трибуналы по всему ЕС будут ссылаться на ИИ-закон как на стандарт осмотрительности при найме с применением ИИ.

Пять шагов для подготовки

До полного вступления в силу осталось пять месяцев. Вот практическая дорожная карта для команд по найму:

  • 1. Проведите аудит вашего ИИ-стека. Составьте карту каждого ИИ-инструмента, задействованного в вашем процессе рекрутинга — фильтры ATS, оценочные платформы, инструменты для интервью, движки ранжирования, чат-боты. Определите, какие из них подпадают под классификацию высокого риска.
  • 2. Оцените своих вендоров. Запросите у каждого вендора документацию о соответствии EU AI Act. Если они не могут её предоставить — они не готовы, а значит, и вы тоже.
  • 3. Внедрите надзор человека. Убедитесь, что ни одна рекомендация ИИ не приводит к отказу кандидату без проверки человеком. Задокументируйте процесс принятия решений человеком.
  • 4. Наладьте мониторинг предвзятости. Начните отслеживать показатели отбора по защищённым характеристикам. Если вы обнаружите неравное воздействие — задокументируйте меры по его устранению.
  • 5. Подготовьте документацию. Создайте или запросите техническую документацию для каждой ИИ-системы в вашем стеке найма. Включите оценки рисков, процедуры управления данными и планы реагирования на инциденты.

Итог

EU AI Act — это не препятствие для найма с применением ИИ, а система для его ответственного ведения. Организации, принявшие соответствие требованиям, получат более надёжные инструменты, более обоснованные решения и лучший опыт для кандидатов. Те, кто проигнорирует его, столкнутся с финансовыми санкциями, правовыми рисками и репутационным ущербом.

Вопрос не в том, соответствовать ли требованиям. Вопрос в том — возглавить процесс или наверстывать упущенное. Август 2026 ближе, чем вы думаете.

Ready to go beyond the CV?

Scovai's AI-powered Talent Passport reveals what resumes can't — personality, potential, and true job fit.