Pular para o conteúdo
W K
EU AI Act III(4)(a): Alto risco Q3

Candidate Screening Agent

Estruture o processo de triagem - com conformidade regulatória completa integrada.

Analisa currículos contra requisitos do cargo e apresenta perfis estruturados aos recrutadores. Alto risco sob PL 2338/2023.

Analisar seu processo
Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

Critérios eliminatórios por regras, matching de perfil por IA, verificação de viés e escalada

O agente filtra completude formal e critérios eliminatórios de forma determinística, classifica por extração de IA o match com o perfil de requisitos com pontuações parciais justificadas e escala padrões estatísticos de viés antes da geração da shortlist.

Resultado: Com 200 a 800 candidaturas por vaga, uma shortlist auditável em vez de score caixa-preta, documentação completa por candidato alinhada ao PL 2338/2023 e à LGPD.

27% Motor de regras
55% Agente IA
18% Humano

O núcleo arquitetural é a decomposição do processo de triagem em etapas de decisão individuais e documentadas:

Agosto de 2026: marco regulatório para todo agente de recrutamento

Com a aprovação do PL 2338/2023, todo sistema de IA que filtra candidaturas tende a ser classificado como alto risco. Quem não conseguir demonstrar uma arquitetura de decisão documentada terá que desligar o sistema. Não em algum momento indeterminado. Em um prazo regulatório definido.

Essa é a realidade em que áreas de recrutamento estão planejando. E é desconfortável, porque triagem de candidatos é simultaneamente o processo onde automação tem maior alavanca - e os maiores riscos.

O problema por trás do problema

Este agente segue o princípio do Decision Layer: cada decisão é baseada em regras, assistida por IA ou atribuída explicitamente a uma pessoa.

O desafio óbvio todo mundo conhece: 200, 400, às vezes 800 candidaturas por vaga. Recrutadores que depois do quinquagésimo currículo não aplicam mais os mesmos critérios do primeiro. Gestores que perguntam depois de três semanas por que a shortlist ainda não está pronta.

Mas o problema real está mais fundo. A maioria das empresas que usa IA na triagem não sabe como seus algoritmos avaliam. Não conhece a ponderação. Não consegue explicar por que o candidato A está na shortlist e o candidato B não. E exatamente isso se torna risco.

O caso Mobley v. Workday nos EUA torna isso concreto. Um candidato processa não o potencial empregador, mas o fornecedor de software cuja IA o filtrou. O tribunal federal americano admite a ação coletiva - por discriminação sistemática por idade, origem e deficiência. Um estudo da University of Washington mostra: em triagens de currículo apoiadas por IA, nomes associados a origem branca foram preferidos em 85% dos casos. Em algumas categorias profissionais, candidatos negros do sexo masculino foram desfavorecidos em 100% dos casos testados.

Não são cenários hipotéticos. São processos judiciais em andamento e resultados de pesquisa publicados.

Alto risco não precisa significar alto bloqueio

O PL 2338/2023 classifica conscientemente a triagem de candidatos como potencialmente alto risco - sistemas de IA destinados ao uso em recrutamento ou seleção. Isso implica a cascata completa de obrigações: avaliação de conformidade, qualidade de dados, documentação técnica, registro de decisões, transparência para candidatos, supervisão humana.

Isso soa como burocracia. Na verdade, descreve exatamente a arquitetura que um sistema de triagem responsável precisa de qualquer forma. A questão não é se, mas como - e aqui se separa o remendo operacional da infraestrutura sustentável.

A diferença decisiva: muitas empresas tratam triagem por IA como um sistema monolítico. Candidatura entra, score sai. Mas um sistema monolítico não pode ser auditado, não pode ser explicado, não pode ser governado de forma diferenciada. Se o score diz 72 e ninguém sabe se isso se deve a competências linguísticas insuficientes ou a uma lacuna no currículo, o sistema é regulatoriamente inútil.

Triagem como cadeia de decisões individuais

O Candidate Screening Agent funciona de maneira diferente. Ele decompõe o processo de triagem em etapas de decisão individuais e documentadas. Cada etapa tem um decisor definido: motor de regras, IA ou humano.

Candidatura recebida
    |
    v
[Motor de regras] Completude formal
    |
    v
[Motor de regras] Critérios eliminatórios (qualificação, experiência, idiomas)
    |
    v
[Agente IA]       Correspondência semântica de perfil
    |
    v
[Agente IA]       Scoring ponderado + justificativa por dimensão
    |
    v
[Agente IA]       Verificação de viés em padrões estatísticos
    |
    v
[Humano]          Revisão e ajuste da shortlist

As duas primeiras etapas são baseadas em regras. Nenhum machine learning, nenhuma caixa-preta. Um candidato sem a experiência profissional exigida não é filtrado por um algoritmo - é filtrado por um motor de regras que o sindicato aprovou previamente e que se apoia na convenção coletiva aplicável.

Só na correspondência de perfil entra o agente de IA. A análise semântica compara currículo e qualificações contra o perfil de requisitos. Mas - e este é o núcleo arquitetural - cada avaliação parcial é justificada individualmente. Não um score, mas seis ou oito avaliações individuais documentadas que juntas formam o ranking.

O que essa arquitetura entrega em termos regulatórios

O PL 2338/2023 exige supervisão humana efetiva. Nenhum comitê consegue analisar manualmente 400 candidaturas e simultaneamente exercer supervisão. Mas um comitê pode revisar uma shortlist com avaliações individuais documentadas. Pode compreender por que o candidato A tem 89 pontos em aderência de competências e o candidato B tem 61. Pode ler o relatório de viés e identificar se faixas etárias estão sendo sistematicamente avaliadas de forma diferente.

Essa é a diferença entre conformidade formal e conformidade substantiva. Conformidade formal marca requisitos como atendidos. Conformidade substantiva constrói uma arquitetura em que supervisão humana de fato funciona - porque a base de informação para isso existe.

A LGPD (PT: RGPD) exige transparência para candidatos sobre tratamento automatizado de dados. Se cada avaliação é justificada, um candidato rejeitado pode compreender em qual critério sua candidatura não atendeu. Não em um score global que nada explica - mas em requisitos concretos e nomeados.

E o registro completo de decisões com timestamp, tipo de decisor e justificativa não é subproduto. É função central.

Infraestrutura de governança como investimento

O Candidate Screening Agent é frequentemente o primeiro agente de alto risco que uma empresa coloca em produção. Com isso, ele força a construção de infraestrutura que nenhum agente sozinho justificaria, mas que todo agente de alto risco subsequente reutiliza.

O motor de monitoramento de viés, que aqui detecta padrões estatísticos no scoring, será reutilizado pelo Performance Review Agent, pelo Merit Cycle Agent, pelo Promotion Process Agent. O procedimento de scoring documentado - cada avaliação com justificativa - se torna padrão para todo agente que prepara decisões sobre pessoas. A comunicação de rejeição conforme LGPD estabelece templates que são reaproveitados em toda a comunicação com candidatos.

Triagem não é um caso de uso isolado. É o alicerce sobre o qual toda a governança de alto risco se constrói - documentada, auditável e defensável perante o sindicato, antes que o prazo regulatório chegue.

Tabela de microdecisões

Quem decide neste agente?

11 passos de decisão, divididos por decisor

27%(3/11)
Motor de regras
determinístico
55%(6/11)
Agente IA
baseado em modelo com confiança
18%(2/11)
Humano
atribuição explícita
Humano
Motor de regras
Agente IA
Cada linha é uma decisão. Expanda para ver o registro de decisão e se pode ser contestada.
Analisar documentos de candidatura Extrair dados estruturados de currículo, carta e formulário Agente IA

Análise de documentos e extração de dados de formatos variados

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Comparar qualificações com requisitos Comparar qualificações extraídas com perfil de requisitos Agente IA

Correspondência assistida por IA com scores de confiança por requisito

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Identificar lacunas de qualificação Sinalizar requisitos não claramente atendidos pelos dados da candidatura Agente IA

Análise de lacunas comparando perfil com lista de requisitos

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Gerar perfil estruturado do candidato Apresentar dados extraídos e avaliação de correspondência ao recrutador Agente IA

Montagem automatizada de perfil para revisão consistente

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Executar verificação de monitoramento de viés Analisar distribuição das saídas para indicadores de viés demográfico Agente IA

Análise estatística de equidade nas saídas de triagem

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Sinalizar preocupação de viés Alertar equipe de conformidade se indicadores excedem limiar Motor de regras

Alerta baseado em limiar conforme métricas de equidade definidas

Registro de decisão

ID da regra e número da versão
Dados de entrada que acionaram a regra
Resultado do cálculo e fórmula aplicada

Contestável: Sim - aplicação da regra verificável. Objeção possível por dados incorretos ou versão de regra errada.

Recrutador revisa perfil Avaliar candidato baseado em perfil estruturado e própria avaliação Humano

Decisão humana obrigatória - IA fornece estrutura, não veredicto

Registro de decisão

ID do decisor e função
Justificativa da decisão
Carimbo de data/hora e contexto

Contestável: Sim - através do superior, sindicato ou processo formal de objeção.

Registrar decisão de triagem Documentar decisão do recrutador com fundamentação Humano

Documentação obrigatória conforme requisito de trilha de auditoria

Registro de decisão

ID do decisor e função
Justificativa da decisão
Carimbo de data/hora e contexto

Contestável: Sim - através do superior, sindicato ou processo formal de objeção.

Registrar decisão na trilha de auditoria Armazenar registro completo com todas as entradas e saídas Motor de regras

Registro automatizado conforme requisitos de documentação de alto risco

Registro de decisão

ID da regra e número da versão
Dados de entrada que acionaram a regra
Resultado do cálculo e fórmula aplicada

Contestável: Sim - aplicação da regra verificável. Objeção possível por dados incorretos ou versão de regra errada.

Atualizar status do candidato Mover candidato para próxima etapa ou rejeição Motor de regras

Atualização de status baseada na decisão registrada do recrutador

Registro de decisão

ID da regra e número da versão
Dados de entrada que acionaram a regra
Resultado do cálculo e fórmula aplicada

Contestável: Sim - aplicação da regra verificável. Objeção possível por dados incorretos ou versão de regra errada.

Gerar documentação de rejeição Produzir notificação de rejeição conforme LGPD se aplicável Agente IA

Geração automatizada de notificação conforme modelos configurados

Registro de decisão

Versão do modelo e pontuação de confiança
Dados de entrada e resultado da classificação
Justificativa da decisão (explicabilidade)
Trilha de auditoria com rastreabilidade completa

Contestável: Sim - totalmente documentado, revisável por humanos, objeção por processo formal.

Registro de decisão e direito de contestação

Cada decisão que este agente toma ou prepara é documentada em um registro de decisão completo. Os funcionários afetados podem revisar, compreender e contestar cada decisão individual.

Qual regra em qual versão foi aplicada?
Em quais dados a decisão foi baseada?
Quem (humano, motor de regras ou IA) decidiu - e por quê?
Como a pessoa afetada pode registrar uma objeção?
Como o Decision Layer implementa isso arquitetonicamente →

Este agente se encaixa no seu processo?

Analisamos seu processo específico e mostramos como este agente se integra à sua paisagem de sistemas. 30 minutos, sem preparação necessária.

Analisar seu processo

Notas de governança

EU AI Act III(4)(a): Alto risco
Classificado como potencialmente alto risco pelo PL 2338/2023 - sistemas de IA destinados ao uso em recrutamento ou seleção de candidatos. Avaliação de conformidade obrigatória antes da implantação. Monitoramento contínuo de viés é obrigatório, não opcional. LGPD exige informar candidatos sobre processamento automatizado. Direito de não ser submetido a decisões exclusivamente automatizadas aplica-se - o agente deve garantir que um humano tome cada decisão de triagem. Os requisitos de governança deste agente são os mais rigorosos do catálogo. O Decision Layer decompõe cada processo em etapas de decisão individuais e define para cada uma: Humano, Motor de regras ou Agente IA. Cada decisão é documentada em um registro de decisão completo. Os funcionários afetados podem compreender e contestar qualquer decisão automatizada.

Painel de pontuações

Agent Readiness 64-71%
Governance Complexity 74-81%
Economic Impact 78-85%
Lighthouse Effect 76-83%
Implementation Complexity 51-58%
Volume de transações Diário

Pré-requisitos

  • Sistema de rastreamento de candidatos (ATS) com modelo de dados estruturado
  • Perfis de requisitos de cargo com critérios de qualificação mensuráveis
  • Documentação de avaliação de conformidade conforme PL 2338/2023
  • Framework de monitoramento de viés com métricas de equidade definidas
  • Infraestrutura de registro de decisões com trilha de auditoria completa
  • Acordo com Sindicato sobre triagem apoiada por IA
  • Relatório de Impacto à Proteção de Dados (RIPD) para processamento automatizado de candidatos
  • Avaliação de impacto em direitos fundamentais
  • Workflow de Human-in-the-Loop garantindo nenhuma decisão de triagem automatizada

Contribuição para infraestrutura

O Candidate Screening Agent é o teste decisivo para prontidão de governança de alto risco. Se uma organização pode implantar este agente com conformidade total - avaliação, monitoramento de viés, registro de decisões, Human-in-the-Loop - ela pode implantar qualquer agente de alto risco. A infraestrutura de governança validada aqui transfere-se diretamente para Performance Review, Merit Cycle e Promotion Process Agents. Constrói Decision Logging e Audit Trail utilizados pelo Decision Layer para rastreabilidade e contestabilidade de cada decisão.

O que esta avaliação contém: 9 slides para sua equipe de liderança

Personalizada com seus dados. Gerada em 2 minutos no navegador. Sem upload, sem login.

  1. 1

    Capa - Nome do processo, pontos de decisão, potencial de automação

  2. 2

    Resumo executivo - FTE liberados, custo por transação, data de retorno

  3. 3

    Situação atual - Volume de transações, custos de erro, cenário de crescimento

  4. 4

    Arquitetura de solução - Humano - motor de regras - agente IA

  5. 5

    Governança - EU AI Act, SPED/NF-e, trilha de auditoria

  6. 6

    Análise de riscos - 5 riscos com probabilidade e impacto

  7. 7

    Roteiro - Plano de 3 fases com datas concretas

  8. 8

    Caso de negócio - Comparação de 3 cenários mais matriz de sensibilidade

  9. 9

    Proposta de discussão - Próximos passos concretos

Inclui: comparação de 3 cenários

Não fazer nada vs. nova contratação vs. automação - com seu nível salarial, sua taxa de erro e seu plano de crescimento.

Mostrar metodologia de cálculo

Hourly rate: Annual salary (your input) × 1.3 employer burden ÷ 1,720 annual work hours

Savings: Transactions × 12 × automation rate × minutes/transaction × hourly rate × economic factor

Quality ROI: Error reduction × transactions × 12 × EUR 260/error (APQC Open Standards Benchmarking)

FTE: Saved hours ÷ 1,720 annual work hours

Break-Even: Benchmark investment ÷ monthly combined savings (efficiency + quality)

New hire: Annual salary × 1.3 + EUR 12,000 recruiting per FTE

Todos os dados permanecem no seu navegador. Nada é transmitido a servidores.

Candidate Screening Agent

Initial assessment for your leadership team

A thorough initial assessment in 2 minutes - with your numbers, your risk profile and industry benchmarks. No vendor logo, no sales pitch.

30K120K
1%15%

All data stays in your browser. Nothing is transmitted.

Agent Blueprint disponível

Um blueprint completo do Candidate Screening Agent está disponível com decomposição de microdecisões, variantes industriais e detalhes de implementação.

Ver blueprint

Perguntas frequentes

O agente rejeita candidatos automaticamente?

Não. O agente estrutura informações para revisão humana. Cada decisão de triagem é tomada por um recrutador. Decisões totalmente automatizadas em recrutamento não são permitidas - este agente é projetado com Human-in-the-Loop como requisito arquitetural fundamental.

Por que este é um agente do Q3 e não Q1?

Os requisitos de governança para IA de alto risco em recrutamento são os mais exigentes do catálogo. Registro de decisões, monitoramento de viés, avaliação de conformidade e acordo sindical devem estar em vigor antes da implantação. Estas capacidades são construídas e comprovadas nos agentes do Q1 (folha, ponto) primeiro.

Como funciona o monitoramento de viés?

O agente analisa continuamente a distribuição de suas saídas entre grupos demográficos (quando permitido por lei). Se disparidades sistemáticas emergem, o sistema sinaliza para revisão de conformidade. O monitoramento é estatístico e contínuo, não certificação pontual.

O que acontece depois?

1

30 minutos

Primeira reunião

Analisamos seu processo e identificamos o ponto de partida ideal.

2

1 semana

Discover

Mapeamento da sua lógica de decisão. Regras documentadas, Decision Layer projetado.

3

3-4 semanas

Build

Agente produtivo na sua infraestrutura. Governança, audit trail, cert-ready desde o dia 1.

4

12-18 meses

Autossuficiência

Acesso completo ao código-fonte, prompts e versões de regras. Sem vendor lock-in.

Implementar este agente?

Avaliamos sua paisagem de processos e mostramos como este agente se encaixa em sua infraestrutura.