Guía 1 de marzo de 2026 11 min de lectura

Navegando el EU AI Act: lo que los equipos de selección deben saber antes de agosto de 2026

SL

Dr. Sarah Liu

Responsable de investigación, Scovai

Navegando el EU AI Act: lo que los equipos de selección deben saber antes de agosto de 2026

El 2 de agosto de 2026, los requisitos de alto riesgo del EU AI Act entran plenamente en vigor. Cualquier sistema de IA utilizado para el reclutamiento, cribado o evaluación de candidatos — ya sea que analice currículums, puntúe evaluaciones, realice entrevistas o clasifique candidatos — cae bajo la categoría regulatoria más estricta de la ley. Las sanciones por incumplimiento alcanzan 35 millones de euros o el 7% de la facturación anual global, lo que sea mayor.

Esto no es una preocupación futura. Faltan cinco meses. Y para la mayoría de las organizaciones que usan IA en la contratación, la brecha de cumplimiento es mayor de lo que creen.

Qué dice el EU AI Act sobre la contratación

El EU AI Act (Reglamento 2024/1689) establece un marco basado en el riesgo para los sistemas de IA en todos los sectores. El Artículo 6 y el Anexo III clasifican explícitamente los sistemas de IA utilizados para el "reclutamiento o selección de personas físicas, para tomar decisiones que afecten los términos de la relación laboral, o para la asignación de tareas basada en el comportamiento individual" como de alto riesgo.

Esta clasificación se aplica a prácticamente todas las herramientas de IA en la pila de reclutamiento moderna:

  • Herramientas de cribado de currículums — incluidos los filtros de palabras clave ATS y los analizadores de CV basados en IA
  • Plataformas de evaluación — pruebas cognitivas, evaluaciones de personalidad, evaluaciones de habilidades
  • Sistemas de entrevista con IA — análisis de vídeo, entrevistas con chatbot, puntuación automatizada
  • Motores de clasificación de candidatos — algoritmos de preselección, puntuación de compatibilidad, sistemas de recomendación
  • Chatbots y asistentes de IA — cualquier IA que interactúe con candidatos durante el proceso de contratación
Alcance extraterritorial

El EU AI Act tiene alcance extraterritorial. Si el resultado de su sistema de IA se utiliza dentro de la UE — es decir, evalúa candidatos que son residentes de la UE, o informa decisiones de contratación en oficinas con sede en la UE — la ley se aplica independientemente de dónde tenga su sede su empresa. Las empresas estadounidenses, británicas y suizas que contratan en la UE están completamente cubiertas.

El calendario: qué ya está en vigor

El EU AI Act entró en vigor el 1 de agosto de 2024, con un calendario de implementación gradual:

Feb 2025
Prohibición del reconocimiento de emociones en entrevistas de trabajo
Aug 2025
Reglas de transparencia y gobernanza de datos activas
Aug 2026
Requisitos completos de alto riesgo — el gran plazo
€35M
Sanción máxima por incumplimiento

Ya en vigor: la prohibición del reconocimiento de emociones

Desde el 2 de febrero de 2025, es ilegal utilizar sistemas de IA que infieran emociones de datos biométricos (expresiones faciales, tono de voz, lenguaje corporal) en contextos laborales y de reclutamiento. Esto impacta directamente a las plataformas de entrevista por vídeo que afirmaban evaluar el "entusiasmo", la "confianza" o el "ajuste cultural" a partir del análisis facial. Cualquier proveedor que todavía ofrezca detección de emociones en entrevistas de trabajo está operando en violación de la ley.

Ya en vigor: requisitos de transparencia

Desde el 2 de agosto de 2025, las organizaciones deben informar a los candidatos antes de que comience el proceso que se está utilizando IA en su evaluación. Esto no es una simple casilla — requiere una divulgación significativa de:

  • Qué sistemas de IA se están utilizando
  • Qué datos se están recopilando y procesando
  • Cómo los resultados de la IA influyen en las decisiones de contratación
  • El derecho del candidato a solicitar revisión humana

Próximamente en agosto de 2026: cumplimiento completo de alto riesgo

El plazo de agosto de 2026 es cuando entran en vigor los requisitos exhaustivos para los sistemas de IA de alto riesgo. Esta es la montaña de cumplimiento que la mayoría de las organizaciones todavía no ha escalado.

Los siete pilares del cumplimiento de alto riesgo

Los Artículos 8-15 del EU AI Act definen siete categorías de requisitos para los sistemas de IA de alto riesgo. Esto es lo que cada uno significa para los equipos de selección:

1. Sistema de gestión de riesgos (Artículo 9)

Debe implementar un proceso continuo de gestión de riesgos durante todo el ciclo de vida del sistema de IA — no una evaluación puntual, sino una práctica continua. Esto incluye:

  • Identificación y análisis de riesgos conocidos y previsibles
  • Estimación de riesgos para la salud, la seguridad y los derechos fundamentales
  • Adopción de medidas de mitigación de riesgos
  • Prueba del sistema frente a esas medidas

Para la IA en contratación, esto significa documentar los riesgos de sesgo, discriminación, opacidad y errores en la evaluación de candidatos — y mostrar qué se está haciendo al respecto.

2. Gobernanza de datos (Artículo 10)

Los datos de entrenamiento, validación y prueba deben cumplir criterios de calidad estrictos. La ley requiere:

  • Datos que sean relevantes, representativos y libres de errores
  • Examen de posibles sesgos en los conjuntos de datos de entrenamiento
  • Documentación de fuentes de datos, métodos de recopilación y pasos de procesamiento
  • Atención especial a las características protegidas (género, etnia, edad, discapacidad)

3. Documentación técnica (Artículo 11)

Antes de que cualquier sistema de IA de contratación se coloque en el mercado o se implemente, debe prepararse documentación técnica completa. Esta incluye arquitectura del sistema, especificaciones de diseño, algoritmos utilizados, requisitos de datos, métricas de rendimiento y limitaciones conocidas.

4. Mantenimiento de registros y registro de eventos (Artículo 12)

Los sistemas de IA de alto riesgo deben registrar automáticamente eventos durante su operación. Para la IA en contratación, esto significa:

  • Cada puntuación, clasificación o recomendación generada por IA debe ser trazable
  • Los registros deben identificar los datos de entrada, la versión del modelo y la salida
  • Los registros deben conservarse por la duración especificada por la ley aplicable (mínimo: duración del proceso de contratación + período de apelación)
  • Los registros deben ser accesibles para la inspección regulatoria

5. Transparencia e información (Artículo 13)

Los sistemas de IA de contratación deben diseñarse para ser suficientemente transparentes de modo que los implementadores (empleadores) puedan interpretar los resultados y usarlos adecuadamente. Esto incluye:

  • Instrucciones claras para los operadores humanos sobre cómo interpretar los resultados de la IA
  • Documentación de las capacidades y limitaciones del sistema
  • Información sobre el nivel de precisión y los sesgos conocidos
  • Condiciones bajo las cuales el sistema puede producir resultados incorrectos

6. Supervisión humana (Artículo 14)

Este es el requisito que moldea fundamentalmente cómo se puede usar la IA en la contratación. La ley exige que los sistemas de IA de alto riesgo deben diseñarse para permitir una supervisión humana efectiva. Específicamente:

  • Una persona cualificada debe ser capaz de comprender los resultados de la IA
  • Un ser humano debe ser capaz de anular o revertir cualquier decisión de IA
  • El sistema no debe producir resultados que un operador humano no pueda revisar significativamente
  • El rechazo automático de candidatos sin revisión humana es explícitamente no conforme

"El Artículo 14 no prohíbe a la IA participar en la contratación — le prohíbe hacerlo de forma autónoma. Cada recomendación de IA debe pasar por un ser humano que pueda entenderla, cuestionarla y anularla."

7. Precisión, solidez y ciberseguridad (Artículo 15)

Los sistemas de IA de alto riesgo deben alcanzar un nivel apropiado de precisión para su propósito previsto, ser resilientes a errores e inconsistencias, y estar protegidos contra acceso o manipulación no autorizados.

El mandato de monitorización de sesgos

Aunque el EU AI Act no utiliza el término "regla de los cuatro quintos" (un estándar legal estadounidense), sus requisitos de no discriminación son aún más completos. El Artículo 10(2)(f) requiere que los datos de entrenamiento se examinen para detectar "posibles sesgos que puedan afectar a la salud y la seguridad de las personas, tener un impacto negativo en los derechos fundamentales". El Considerando 47 hace referencia explícita al riesgo de "perpetuar patrones históricos de discriminación" en el empleo.

En la práctica, esto significa que las organizaciones deben:

  • Monitorizar las tasas de selección por género, etnia, edad y estado de discapacidad
  • Documentar cualquier impacto disparejo y las medidas tomadas para abordarlo
  • Realizar auditorías periódicas de sesgos en los resultados generados por IA
  • Proporcionar a los candidatos el derecho a explicación por decisiones influenciadas por IA

Cómo se ve el cumplimiento real

Muchos proveedores afirman "cumplimiento con el EU AI Act" sin especificar qué quieren decir. Aquí hay una lista de verificación práctica para evaluar si su pila de IA de contratación está verdaderamente lista para agosto de 2026:

  • Notificación a candidatos: ¿Se informa a los candidatos antes del proceso de que se usa IA?
  • Supervisión humana: ¿Cada recomendación de IA va a un ser humano antes de cualquier decisión de contratación?
  • Explicabilidad: ¿Puede explicar a un candidato por qué obtuvo la puntuación que obtuvo?
  • Rastro de auditoría: ¿Cada decisión de puntuación de IA se registra con entradas, versión del modelo y salidas?
  • Monitorización de sesgos: ¿Realiza seguimiento de las tasas de selección por características protegidas en tiempo real?
  • Sin reconocimiento de emociones: ¿Alguna herramienta de su pila infiere emociones de datos biométricos?
  • Derecho de revisión: ¿Pueden los candidatos solicitar revisión humana de cualquier decisión influenciada por IA?
  • Gobernanza de datos: ¿Puede documentar la procedencia y calidad de sus datos de entrenamiento de IA?
  • Documentación técnica: ¿Están documentados la arquitectura, el rendimiento y las limitaciones de su sistema de IA?
  • Notificación de incidentes: ¿Tiene un proceso para notificar a las autoridades sobre fallos del sistema de IA?
Cómo aborda Scovai el cumplimiento

Scovai fue diseñado con el cumplimiento del EU AI Act como principio fundacional, no como una ocurrencia tardía. Cada recomendación de IA va a un reclutador humano antes de cualquier decisión de contratación. Todas las puntuaciones se registran con rastros de auditoría completos. La monitorización de sesgos rastrea la regla de los cuatro quintos por género, edad y etnia en tiempo real. Los candidatos son informados de antemano sobre el uso de IA, reciben transparencia sobre lo que se está midiendo y pueden solicitar explicaciones de sus puntuaciones. El Integrity Shield proporciona verificación de autenticidad de evaluaciones sin reconocimiento de emociones — totalmente conforme con la prohibición de febrero de 2025. Y toda la plataforma cumple con el GDPR con gestión integrada de consentimiento, exportación de datos y soporte del derecho a la supresión.

La conexión con el GDPR

El EU AI Act no reemplaza al GDPR — se superpone a él. Las organizaciones que usan IA en la contratación deben cumplir ambos simultáneamente. Consideraciones clave del GDPR para herramientas de IA de contratación:

  • Artículo 22 (toma de decisiones automatizada): Los candidatos tienen derecho a no ser objeto de decisiones basadas únicamente en el procesamiento automatizado que produzcan efectos jurídicos o igualmente significativos. Esto se alinea con el requisito de supervisión humana del AI Act.
  • Base jurídica: El procesamiento de datos de candidatos a través de sistemas de IA requiere una base jurídica — típicamente interés legítimo o consentimiento explícito.
  • Minimización de datos: Solo recopilar y procesar los datos necesarios para la decisión de contratación.
  • Derecho a la supresión: Los candidatos pueden solicitar la eliminación de sus datos, incluidas las puntuaciones y perfiles generados por IA.
  • Evaluación de impacto en la protección de datos (DPIA): Los sistemas de IA de contratación casi con certeza activan el requisito de una DPIA según el Artículo 35 del GDPR.

Qué ocurre si no está preparado

La estructura de sanciones del EU AI Act está diseñada para garantizar que el cumplimiento no sea opcional:

  • Prácticas prohibidas (por ejemplo, reconocimiento de emociones en contratación): Hasta 35 millones de euros o el 7% de la facturación anual global
  • Incumplimiento de alto riesgo (por ejemplo, documentación faltante, sin supervisión humana): Hasta 15 millones de euros o el 3% de la facturación anual global
  • Información incorrecta a las autoridades: Hasta 7,5 millones de euros o el 1% de la facturación anual global

Más allá de las multas, el incumplimiento crea riesgo de litigios. Los candidatos que crean haber sido discriminados por herramientas de IA de contratación ahora tienen un marco regulatorio claro para impugnar esas decisiones. Se espera que los tribunales laborales de toda la UE hagan referencia al AI Act como estándar de diligencia debida para la contratación asistida por IA.

Cinco pasos para prepararse

Con cinco meses hasta la aplicación completa, aquí hay una hoja de ruta práctica para los equipos de selección:

  • 1. Audite su pila de IA. Mapee cada herramienta de IA que toca su proceso de reclutamiento — filtros ATS, plataformas de evaluación, herramientas de entrevista, motores de clasificación, chatbots. Determine cuáles caen bajo la clasificación de alto riesgo.
  • 2. Evalúe a sus proveedores. Pida a cada proveedor su documentación de cumplimiento del EU AI Act. Si no pueden proporcionarla, no están preparados — y por extensión, tampoco usted.
  • 3. Implemente supervisión humana. Asegúrese de que ninguna recomendación generada por IA lleve al rechazo de un candidato sin revisión humana. Documente el proceso de toma de decisiones humanas.
  • 4. Establezca monitorización de sesgos. Comience a rastrear las tasas de selección por características protegidas. Si encuentra un impacto disparejo, documente sus pasos de mitigación.
  • 5. Prepare la documentación. Cree o solicite documentación técnica para cada sistema de IA en su pila de reclutamiento. Incluya evaluaciones de riesgos, procedimientos de gobernanza de datos y planes de respuesta a incidentes.

La conclusión

El EU AI Act no es un obstáculo para la contratación impulsada por IA — es un marco para hacerlo responsablemente. Las organizaciones que adopten el cumplimiento se encontrarán con herramientas más fiables, decisiones más defendibles y mejores experiencias de candidatos. Las que lo ignoren enfrentan penalizaciones financieras, exposición legal y riesgo reputacional.

La pregunta no es si cumplir. Es si liderar o correr a alcanzar. Agosto de 2026 está más cerca de lo que piensa.

Ready to go beyond the CV?

Scovai's AI-powered Talent Passport reveals what resumes can't — personality, potential, and true job fit.