2 августа 2026 года вступят в полную силу требования EU AI Act к высокорисковым системам. Любая система ИИ, используемая для подбора, отбора или оценки кандидатов — будь то парсинг резюме, оценка тестов, проведение интервью или ранжирование соискателей — подпадает под наиболее строгую регуляторную категорию Закона. Санкции за несоблюдение достигают €35 миллионов или 7% годового мирового оборота — в зависимости от того, что выше.
Это не далёкое будущее. До него осталось пять месяцев. И для большинства организаций, использующих ИИ в найме, разрыв в соответствии требованиям шире, чем они думают.
Что EU AI Act говорит о найме
EU AI Act (Regulation 2024/1689) устанавливает риск-ориентированную систему для ИИ-систем во всех секторах. Статья 6 и Приложение III явно классифицируют ИИ-системы, используемые для «подбора или отбора физических лиц, принятия решений, влияющих на условия трудовых отношений, или распределения задач на основе индивидуального поведения», как высокорисковые.
Эта классификация применяется практически к каждому инструменту ИИ в современном стеке рекрутинга:
- Инструменты скрининга резюме — включая фильтры ключевых слов в ATS и ИИ-парсеры CV
- Оценочные платформы — когнитивные тесты, личностные оценки, проверки навыков
- Системы ИИ-интервью — анализ видео, чат-боты для интервью, автоматическая оценка
- Движки ранжирования кандидатов — алгоритмы шорт-листинга, оценка соответствия, системы рекомендаций
- Чат-боты и ИИ-ассистенты — любой ИИ, взаимодействующий с кандидатами в процессе найма
EU AI Act имеет экстерриториальное действие. Если результат работы вашей ИИ-системы используется в ЕС — то есть она оценивает кандидатов, являющихся резидентами ЕС, или влияет на решения о найме в офисах ЕС — Закон применяется независимо от местонахождения штаб-квартиры вашей компании. Компании из США, Великобритании и Швейцарии, нанимающие сотрудников в ЕС, подпадают под его действие в полной мере.
Хронология: что уже действует
EU AI Act вступил в силу 1 августа 2024 года с поэтапным графиком внедрения:
Уже действует: запрет на распознавание эмоций
С 2 февраля 2025 года незаконно использовать ИИ-системы, делающие выводы об эмоциях на основе биометрических данных (мимика, тон голоса, язык тела) в рабочих и рекрутинговых контекстах. Это напрямую затрагивает платформы видео-интервью, заявлявшие о способности оценивать «энтузиазм», «уверенность» или «культурное соответствие» по анализу лица. Любой вендор, продолжающий предлагать распознавание эмоций на собеседованиях, нарушает Закон.
Уже действует: требования прозрачности
С 2 августа 2025 года организации обязаны информировать кандидатов до начала процесса о том, что в их оценке используется ИИ. Это не просто галочка — требуется значимое раскрытие информации о:
- Какие ИИ-системы используются
- Какие данные собираются и обрабатываются
- Как результаты ИИ влияют на решения о найме
- Праве кандидата запросить проверку человеком
Август 2026: полное соответствие требованиям к высокорисковым системам
Дедлайн в августе 2026 года — это когда вступят в силу комплексные требования к высокорисковым ИИ-системам. Это та гора соответствия, на которую большинство организаций ещё не начали взбираться.
Семь столпов соответствия для высокорисковых систем
Статьи 8-15 EU AI Act определяют семь категорий требований для высокорисковых ИИ-систем. Вот что каждая означает для команд по найму:
1. Система управления рисками (Статья 9)
Вы должны внедрить непрерывный процесс управления рисками на протяжении всего жизненного цикла ИИ-системы — не единовременную оценку, а постоянную практику. Это включает:
- Выявление и анализ известных и предсказуемых рисков
- Оценку рисков для здоровья, безопасности и основных прав
- Принятие мер по снижению рисков
- Тестирование системы на соответствие этим мерам
Применительно к ИИ в найме это означает документирование рисков предвзятости, дискриминации, непрозрачности и ошибок в оценке кандидатов — и демонстрацию того, что вы с ними делаете.
2. Управление данными (Статья 10)
Данные для обучения, валидации и тестирования должны соответствовать строгим критериям качества. Закон требует:
- Данных, которые являются релевантными, репрезентативными и свободными от ошибок
- Проверки обучающих наборов данных на возможные предвзятости
- Документирования источников данных, методов сбора и шагов обработки
- Особого внимания к защищённым характеристикам (пол, этническая принадлежность, возраст, инвалидность)
3. Техническая документация (Статья 11)
До вывода на рынок или развёртывания любой ИИ-системы для найма должна быть подготовлена исчерпывающая техническая документация. Она включает архитектуру системы, спецификации дизайна, используемые алгоритмы, требования к данным, показатели производительности и известные ограничения.
4. Ведение записей и журналирование (Статья 12)
Высокорисковые ИИ-системы должны автоматически вести журнал событий на протяжении всей работы. Для ИИ в найме это означает:
- Каждая оценка, ранжирование или рекомендация, созданные ИИ, должны быть отслеживаемы
- Журналы должны идентифицировать входные данные, версию модели и результат
- Записи должны храниться в течение срока, установленного применимым законодательством (минимум: продолжительность процесса найма + период апелляции)
- Журналы должны быть доступны для регуляторной проверки
5. Прозрачность и информирование (Статья 13)
ИИ-системы для найма должны быть разработаны так, чтобы быть достаточно прозрачными для того, чтобы операторы (работодатели) могли интерпретировать результаты и использовать их надлежащим образом. Это включает:
- Чёткие инструкции для операторов-людей о том, как интерпретировать результаты ИИ
- Документацию о возможностях и ограничениях системы
- Информацию об уровне точности и известных предвзятостях
- Условия, при которых система может давать неверные результаты
6. Надзор человека (Статья 14)
Это требование принципиально определяет, как ИИ может использоваться в найме. Закон предписывает, что высокорисковые ИИ-системы должны быть разработаны так, чтобы обеспечивать эффективный надзор человека. В частности:
- Квалифицированный человек должен уметь понимать результаты ИИ
- Человек должен иметь возможность отменить или пересмотреть любое решение ИИ
- Система не должна выдавать результаты, которые оператор-человек не может осмысленно проверить
- Автоматический отказ кандидатам без проверки человеком явно не соответствует требованиям
«Статья 14 не запрещает ИИ в найме — она запрещает ИИ нанимать автономно. Каждая рекомендация ИИ должна проходить через человека, который может её понять, поставить под сомнение и отклонить.»
7. Точность, надёжность и кибербезопасность (Статья 15)
Высокорисковые ИИ-системы должны достигать надлежащего уровня точности для своей предполагаемой цели, быть устойчивы к ошибкам и несоответствиям, а также защищены от несанкционированного доступа или манипуляций.
Мандат на мониторинг предвзятости
Хотя EU AI Act не использует термин «правило четырёх пятых» (американский правовой стандарт), его требования к недискриминации ещё более всеобъемлющи. Статья 10(2)(f) требует проверки обучающих данных на «возможные предвзятости, которые могут негативно сказаться на здоровье и безопасности людей, оказать отрицательное влияние на основные права». Пункт 47 преамбулы прямо указывает на риск «воспроизведения исторических закономерностей дискриминации» в сфере занятости.
На практике это означает, что организации должны:
- Отслеживать показатели отбора по полу, этнической принадлежности, возрасту и статусу инвалидности
- Документировать любое неравное воздействие и принятые меры по его устранению
- Проводить периодические аудиты предвзятости результатов, генерируемых ИИ
- Предоставлять кандидатам право на объяснение решений, принятых под влиянием ИИ
Как выглядит реальное соответствие требованиям
Многие вендоры заявляют о «соответствии EU AI Act», не уточняя, что они имеют в виду. Вот практический чек-лист для оценки готовности вашего ИИ-стека для найма к августу 2026 года:
- Уведомление кандидатов: Информируются ли кандидаты до начала процесса об использовании ИИ?
- Надзор человека: Поступает ли каждая рекомендация ИИ к человеку до принятия решения о найме?
- Объяснимость: Можете ли вы объяснить кандидату почему он получил именно такую оценку?
- Журнал аудита: Фиксируется ли каждое решение ИИ о выставлении оценки с входными данными, версией модели и результатами?
- Мониторинг предвзятости: Отслеживаете ли вы показатели отбора по защищённым характеристикам в режиме реального времени?
- Отсутствие распознавания эмоций: Есть ли в вашем стеке инструменты, делающие выводы об эмоциях по биометрическим данным?
- Право на проверку: Могут ли кандидаты запросить проверку любого решения, принятого под влиянием ИИ, человеком?
- Управление данными: Можете ли вы задокументировать происхождение и качество данных для обучения вашего ИИ?
- Техническая документация: Задокументированы ли архитектура, производительность и ограничения вашей ИИ-системы?
- Отчётность об инцидентах: Есть ли у вас процесс сообщения о сбоях ИИ-системы властям?
Scovai был разработан с соответствием EU AI Act в качестве основополагающего принципа, а не запоздалой мысли. Каждая рекомендация ИИ поступает к рекрутеру-человеку до принятия любого решения о найме. Все оценки фиксируются с полными журналами аудита. Мониторинг предвзятости отслеживает правило четырёх пятых по полу, возрасту и этнической принадлежности в режиме реального времени. Кандидаты заблаговременно информируются об использовании ИИ, получают прозрачность в отношении того, что измеряется, и могут запросить объяснение своих оценок. Integrity Shield обеспечивает верификацию подлинности оценки без распознавания эмоций — полностью соответствует запрету февраля 2025 года. И вся платформа соответствует требованиям GDPR со встроенным управлением согласиями, экспортом данных и поддержкой права на удаление.
Связь с GDPR
EU AI Act не заменяет GDPR — он накладывается поверх него. Организации, использующие ИИ в найме, должны одновременно соответствовать обоим. Ключевые соображения GDPR для ИИ-инструментов найма:
- Статья 22 (автоматизированное принятие решений): Кандидаты имеют право не быть объектом решений, основанных исключительно на автоматизированной обработке, которые влекут юридические или аналогичные значимые последствия. Это согласуется с требованием о надзоре человека по ИИ-закону.
- Правовое основание: Обработка данных кандидатов через ИИ-системы требует правового основания — как правило, законного интереса или явного согласия.
- Минимизация данных: Собирайте и обрабатывайте только данные, необходимые для решения о найме.
- Право на удаление: Кандидаты могут запросить удаление своих данных, включая оценки и профили, созданные ИИ.
- Оценка воздействия на защиту данных (DPIA): ИИ-системы найма почти наверняка запускают требование о проведении DPIA в соответствии со Статьёй 35 GDPR.
Что произойдёт, если вы не готовы
Структура санкций EU AI Act призвана обеспечить обязательность соблюдения требований:
- Запрещённые практики (например, распознавание эмоций при найме): до €35 миллионов или 7% годового мирового оборота
- Несоответствие для высокорисковых систем (например, отсутствие документации, отсутствие надзора человека): до €15 миллионов или 3% годового мирового оборота
- Предоставление недостоверной информации властям: до €7,5 миллионов или 1% годового мирового оборота
Помимо штрафов, несоблюдение создаёт риск судебных разбирательств. Кандидаты, считающие, что подверглись дискриминации со стороны ИИ-инструментов найма, теперь имеют чёткую нормативную базу для оспаривания этих решений. Ожидается, что трудовые трибуналы по всему ЕС будут ссылаться на ИИ-закон как на стандарт осмотрительности при найме с применением ИИ.
Пять шагов для подготовки
До полного вступления в силу осталось пять месяцев. Вот практическая дорожная карта для команд по найму:
- 1. Проведите аудит вашего ИИ-стека. Составьте карту каждого ИИ-инструмента, задействованного в вашем процессе рекрутинга — фильтры ATS, оценочные платформы, инструменты для интервью, движки ранжирования, чат-боты. Определите, какие из них подпадают под классификацию высокого риска.
- 2. Оцените своих вендоров. Запросите у каждого вендора документацию о соответствии EU AI Act. Если они не могут её предоставить — они не готовы, а значит, и вы тоже.
- 3. Внедрите надзор человека. Убедитесь, что ни одна рекомендация ИИ не приводит к отказу кандидату без проверки человеком. Задокументируйте процесс принятия решений человеком.
- 4. Наладьте мониторинг предвзятости. Начните отслеживать показатели отбора по защищённым характеристикам. Если вы обнаружите неравное воздействие — задокументируйте меры по его устранению.
- 5. Подготовьте документацию. Создайте или запросите техническую документацию для каждой ИИ-системы в вашем стеке найма. Включите оценки рисков, процедуры управления данными и планы реагирования на инциденты.
Итог
EU AI Act — это не препятствие для найма с применением ИИ, а система для его ответственного ведения. Организации, принявшие соответствие требованиям, получат более надёжные инструменты, более обоснованные решения и лучший опыт для кандидатов. Те, кто проигнорирует его, столкнутся с финансовыми санкциями, правовыми рисками и репутационным ущербом.
Вопрос не в том, соответствовать ли требованиям. Вопрос в том — возглавить процесс или наверстывать упущенное. Август 2026 ближе, чем вы думаете.