A 2 de agosto de 2026, os requisitos de alto risco do EU AI Act entram plenamente em vigor. Qualquer sistema de IA utilizado para recrutamento, triagem ou avaliação de candidatos — seja a analisar currículos, pontuar avaliações, conduzir entrevistas ou classificar candidatos — enquadra-se na categoria regulatória mais rigorosa da lei. As sanções por incumprimento atingem 35 milhões de euros ou 7% da faturação anual global, consoante o valor mais elevado.
Não é uma preocupação futura. Faltam cinco meses. E para a maioria das organizações que utilizam IA no recrutamento, a lacuna de conformidade é maior do que pensam.
O que diz o EU AI Act sobre a contratação
O EU AI Act (Regulamento 2024/1689) estabelece um enquadramento baseado no risco para os sistemas de IA em todos os setores. O Artigo 6 e o Anexo III classificam explicitamente os sistemas de IA utilizados para "recrutamento ou seleção de pessoas singulares, para tomar decisões que afetem os termos da relação de trabalho, ou para a atribuição de tarefas com base no comportamento individual" como de alto risco.
Esta classificação aplica-se a praticamente todas as ferramentas de IA na pilha moderna de recrutamento:
- Ferramentas de triagem de currículos — incluindo filtros de palavras-chave ATS e analisadores de CV baseados em IA
- Plataformas de avaliação — testes cognitivos, avaliações de personalidade, avaliações de competências
- Sistemas de entrevista com IA — análise de vídeo, entrevistas com chatbot, pontuação automatizada
- Motores de classificação de candidatos — algoritmos de pré-seleção, pontuação de compatibilidade, sistemas de recomendação
- Chatbots e assistentes de IA — qualquer IA que interaja com candidatos durante o processo de contratação
O EU AI Act tem alcance extraterritorial. Se o resultado do seu sistema de IA for utilizado dentro da UE — ou seja, avalia candidatos residentes na UE, ou informa decisões de contratação em escritórios sediados na UE — a lei aplica-se independentemente do local onde a sua empresa tem sede. As empresas dos EUA, Reino Unido e Suíça que recrutam na UE estão totalmente abrangidas.
O calendário: o que já está em vigor
O EU AI Act entrou em vigor a 1 de agosto de 2024, com um calendário de implementação faseado:
Já em vigor: a proibição do reconhecimento de emoções
Desde 2 de fevereiro de 2025, é ilegal utilizar sistemas de IA que infiram emoções a partir de dados biométricos (expressões faciais, tom de voz, linguagem corporal) em contextos de trabalho e recrutamento. Isto impacta diretamente as plataformas de entrevista por vídeo que afirmavam avaliar "entusiasmo", "confiança" ou "alinhamento cultural" a partir de análise facial. Qualquer fornecedor que ainda ofereça deteção de emoções em entrevistas de emprego está a operar em violação da lei.
Já em vigor: requisitos de transparência
Desde 2 de agosto de 2025, as organizações devem informar os candidatos antes do início do processo de que a IA está a ser utilizada na sua avaliação. Não é uma simples caixa de verificação — exige uma divulgação significativa de:
- Que sistemas de IA estão a ser utilizados
- Que dados estão a ser recolhidos e processados
- Como os resultados da IA influenciam as decisões de contratação
- O direito do candidato a solicitar revisão humana
Em breve em agosto de 2026: conformidade total de alto risco
O prazo de agosto de 2026 é quando entram em vigor os requisitos abrangentes para os sistemas de IA de alto risco. Esta é a montanha de conformidade que a maioria das organizações ainda não escalou.
Os sete pilares da conformidade de alto risco
Os Artigos 8-15 do EU AI Act definem sete categorias de requisitos para os sistemas de IA de alto risco. Eis o que cada um significa para as equipas de seleção:
1. Sistema de gestão de riscos (Artigo 9)
Deve implementar um processo contínuo de gestão de riscos ao longo de todo o ciclo de vida do sistema de IA — não uma avaliação pontual, mas uma prática permanente. Isto inclui:
- Identificação e análise de riscos conhecidos e previsíveis
- Estimativa de riscos para a saúde, segurança e direitos fundamentais
- Adoção de medidas de mitigação de riscos
- Teste do sistema face a essas medidas
Para a IA no recrutamento, isto significa documentar os riscos de enviesamento, discriminação, opacidade e erros na avaliação de candidatos — e demonstrar o que está a ser feito a esse respeito.
2. Governação de dados (Artigo 10)
Os dados de treino, validação e teste devem cumprir critérios de qualidade rigorosos. A lei exige:
- Dados que sejam relevantes, representativos e isentos de erros
- Exame de possíveis enviesamentos nos conjuntos de dados de treino
- Documentação das fontes de dados, métodos de recolha e etapas de processamento
- Atenção especial às características protegidas (género, etnia, idade, deficiência)
3. Documentação técnica (Artigo 11)
Antes de qualquer sistema de IA de recrutamento ser colocado no mercado ou implementado, deve ser preparada documentação técnica abrangente. Esta inclui arquitetura do sistema, especificações de design, algoritmos utilizados, requisitos de dados, métricas de desempenho e limitações conhecidas.
4. Manutenção de registos e registo de eventos (Artigo 12)
Os sistemas de IA de alto risco devem automaticamente registar eventos durante o seu funcionamento. Para a IA no recrutamento, isto significa:
- Cada pontuação, classificação ou recomendação gerada por IA deve ser rastreável
- Os registos devem identificar os dados de entrada, a versão do modelo e o resultado
- Os registos devem ser conservados pela duração especificada pela lei aplicável (mínimo: duração do processo de recrutamento + período de recurso)
- Os registos devem estar acessíveis para inspeção regulatória
5. Transparência e informação (Artigo 13)
Os sistemas de IA de recrutamento devem ser concebidos para serem suficientemente transparentes para que os implementadores (empregadores) possam interpretar os resultados e utilizá-los adequadamente. Isto inclui:
- Instruções claras para os operadores humanos sobre como interpretar os resultados da IA
- Documentação das capacidades e limitações do sistema
- Informações sobre o nível de precisão e enviesamentos conhecidos
- Condições em que o sistema pode produzir resultados incorretos
6. Supervisão humana (Artigo 14)
Este é o requisito que molda fundamentalmente como a IA pode ser utilizada no recrutamento. A lei determina que os sistemas de IA de alto risco devem ser concebidos para permitir uma supervisão humana eficaz. Especificamente:
- Uma pessoa qualificada deve ser capaz de compreender os resultados da IA
- Um ser humano deve ser capaz de substituir ou reverter qualquer decisão da IA
- O sistema não deve produzir resultados que um operador humano não consiga rever de forma significativa
- A rejeição automática de candidatos sem revisão humana é explicitamente não conforme
"O Artigo 14 não proíbe a IA de participar no recrutamento — proíbe-a de o fazer de forma autónoma. Cada recomendação da IA deve passar por um ser humano que a possa compreender, questionar e anular."
7. Exatidão, robustez e cibersegurança (Artigo 15)
Os sistemas de IA de alto risco devem atingir um nível adequado de exatidão para o seu propósito previsto, ser resilientes a erros e inconsistências, e estar protegidos contra acesso ou manipulação não autorizados.
O mandato de monitorização de enviesamentos
Embora o EU AI Act não utilize o termo "regra dos quatro quintos" (um padrão legal americano), os seus requisitos de não discriminação são ainda mais abrangentes. O Artigo 10(2)(f) exige que os dados de treino sejam examinados para detetar "possíveis enviesamentos suscetíveis de afetar a saúde e segurança das pessoas, de ter um impacto negativo nos direitos fundamentais". O Considerando 47 faz referência explícita ao risco de "perpetuar padrões históricos de discriminação" no emprego.
Na prática, isto significa que as organizações devem:
- Monitorizar as taxas de seleção por género, etnia, idade e estado de deficiência
- Documentar qualquer impacto disparate e as medidas tomadas para o resolver
- Realizar auditorias periódicas de enviesamentos nos resultados gerados por IA
- Proporcionar aos candidatos o direito a explicação por decisões influenciadas por IA
Como é a conformidade real
Muitos fornecedores afirmam "conformidade com o EU AI Act" sem especificar o que querem dizer. Aqui está uma lista de verificação prática para avaliar se a sua pilha de IA de recrutamento está verdadeiramente pronta para agosto de 2026:
- Notificação de candidatos: Os candidatos são informados antes do processo de que a IA é utilizada?
- Supervisão humana: Cada recomendação da IA vai a um ser humano antes de qualquer decisão de contratação?
- Explicabilidade: Pode explicar a um candidato por que razão obteve a pontuação que obteve?
- Trilho de auditoria: Cada decisão de pontuação da IA é registada com entradas, versão do modelo e resultados?
- Monitorização de enviesamentos: Acompanha as taxas de seleção por características protegidas em tempo real?
- Sem reconhecimento de emoções: Alguma ferramenta da sua pilha infere emoções a partir de dados biométricos?
- Direito de revisão: Os candidatos podem solicitar revisão humana de qualquer decisão influenciada por IA?
- Governação de dados: Pode documentar a proveniência e qualidade dos seus dados de treino de IA?
- Documentação técnica: A arquitetura, o desempenho e as limitações do seu sistema de IA estão documentados?
- Notificação de incidentes: Tem um processo para reportar avarias do sistema de IA às autoridades?
O Scovai foi concebido com a conformidade com o EU AI Act como princípio fundacional, não como uma reflexão tardia. Cada recomendação da IA vai a um recrutador humano antes de qualquer decisão de contratação. Todas as pontuações são registadas com trilhos de auditoria completos. A monitorização de enviesamentos acompanha a regra dos quatro quintos por género, idade e etnia em tempo real. Os candidatos são informados antecipadamente sobre a utilização de IA, recebem transparência sobre o que está a ser medido e podem solicitar explicações sobre as suas pontuações. O Integrity Shield fornece verificação de autenticidade de avaliações sem reconhecimento de emoções — totalmente conforme com a proibição de fevereiro de 2025. E toda a plataforma está em conformidade com o GDPR com gestão integrada de consentimento, exportação de dados e suporte ao direito ao apagamento.
A ligação ao GDPR
O EU AI Act não substitui o GDPR — sobrepõe-se a ele. As organizações que utilizam IA no recrutamento devem cumprir ambos simultaneamente. Principais considerações do GDPR para ferramentas de IA de recrutamento:
- Artigo 22 (tomada de decisão automatizada): Os candidatos têm o direito de não ficar sujeitos a decisões baseadas exclusivamente no tratamento automatizado que produzam efeitos jurídicos ou igualmente significativos. Isto alinha-se com o requisito de supervisão humana do AI Act.
- Base jurídica: O tratamento de dados de candidatos através de sistemas de IA requer uma base jurídica — tipicamente interesse legítimo ou consentimento explícito.
- Minimização de dados: Apenas recolher e tratar os dados necessários para a decisão de contratação.
- Direito ao apagamento: Os candidatos podem solicitar a eliminação dos seus dados, incluindo pontuações e perfis gerados por IA.
- Avaliação de Impacto sobre a Proteção de Dados (DPIA): Os sistemas de IA de recrutamento quase certamente acionam o requisito de uma DPIA ao abrigo do Artigo 35 do GDPR.
O que acontece se não estiver preparado
A estrutura de sanções do EU AI Act foi concebida para garantir que a conformidade não é opcional:
- Práticas proibidas (por exemplo, reconhecimento de emoções no recrutamento): Até 35 milhões de euros ou 7% da faturação anual global
- Incumprimento de alto risco (por exemplo, documentação em falta, sem supervisão humana): Até 15 milhões de euros ou 3% da faturação anual global
- Informação incorreta às autoridades: Até 7,5 milhões de euros ou 1% da faturação anual global
Para além das multas, o incumplimento cria risco de litígio. Os candidatos que acreditem ter sido discriminados por ferramentas de IA de recrutamento têm agora um enquadramento regulatório claro para contestar essas decisões. Espera-se que os tribunais de trabalho em toda a UE referenciem o AI Act como padrão de diligência devida para a contratação assistida por IA.
Cinco passos para se preparar
Com cinco meses até à aplicação total, aqui está um roteiro prático para as equipas de seleção:
- 1. Audite a sua pilha de IA. Mapeie cada ferramenta de IA que toca o seu processo de recrutamento — filtros ATS, plataformas de avaliação, ferramentas de entrevista, motores de classificação, chatbots. Determine quais se enquadram na classificação de alto risco.
- 2. Avalie os seus fornecedores. Solicite a cada fornecedor a sua documentação de conformidade com o EU AI Act. Se não conseguirem fornecê-la, não estão preparados — e por extensão, também não está.
- 3. Implemente supervisão humana. Certifique-se de que nenhuma recomendação gerada por IA leva à rejeição de um candidato sem revisão humana. Documente o processo de tomada de decisão humana.
- 4. Estabeleça monitorização de enviesamentos. Comece a acompanhar as taxas de seleção por características protegidas. Se encontrar um impacto disparate, documente os seus passos de mitigação.
- 5. Prepare a documentação. Crie ou solicite documentação técnica para cada sistema de IA na sua pilha de recrutamento. Inclua avaliações de risco, procedimentos de governação de dados e planos de resposta a incidentes.
A conclusão
O EU AI Act não é um obstáculo à contratação impulsionada por IA — é um enquadramento para o fazer de forma responsável. As organizações que adotarem a conformidade encontrar-se-ão com ferramentas mais fiáveis, decisões mais defensáveis e melhores experiências de candidatos. As que o ignorarem enfrentam penalizações financeiras, exposição legal e risco reputacional.
A questão não é se cumprir. É se liderar ou correr atrás. Agosto de 2026 está mais próximo do que pensa.