Przejdź do treści
W K
EU AI Act III(4)(a): Wysokie ryzyko Q3

Candidate Screening Agent

Struktura procesu screeningu - z pełną zgodnością EU AI Act wbudowaną od początku.

Analizuje aplikacje względem wymagań i prezentuje ustrukturyzowane profile rekruterom. Klasyfikacja wysokiego ryzyka EU AI Act.

Przeanalizować proces
Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

Kryteria K.O. przez reguły, dopasowanie profilu przez AI, sprawdzanie bias i eskalacja

Agent deterministycznie filtruje formalną kompletność i kryteria K.O., klasyfikuje przez ekstrakcję AI dopasowanie do profilu wymagań z indywidualnie uzasadnionymi ocenami cząstkowymi i eskaluje statystyczne wzorce bias przed utworzeniem shortlisty.

Wynik: Przy 200 do 800 aplikacjach na stanowisko audytowalna shortlista zamiast blackbox-score, pełna dokumentacja na kandydata zgodnie z Aktem o AI art. 12 do 14 od sierpnia 2026.

27% Silnik reguł
55% Agent AI
18% Człowiek

Architektonicznym rdzeniem jest rozłożenie procesu screeningu na pojedyncze, udokumentowane kroki decyzyjne:

Sierpień 2026: termin dla każdego automatu rekrutacyjnego

Od sierpnia 2026 roku każdy system AI filtrujący aplikacje o pracę jest systemem wysokiego ryzyka zgodnie z EU AI Act. Kto do tego czasu nie będzie mógł wykazać udokumentowanej architektury decyzyjnej, musi wyłączyć automat. Nie kiedyś. W konkretnym terminie.

To rzeczywistość, w której działy rekrutacji właśnie planują. I jest niewygodna, ponieważ screening kandydatów jest jednocześnie procesem, w którym automatyzacja daje największy efekt - i niesie największe ryzyko.

Problem za problemem

Agent działa zgodnie z zasadą Decision Layer: każda decyzja jest oparta na regułach, wspierana przez AI lub przypisana człowiekowi.

Oczywiste wyzwanie zna każdy: 200, 400, czasem 800 aplikacji na jedno stanowisko. Rekruterzy, którzy po pięćdziesiątym CV nie stosują już tych samych kryteriów co przy pierwszym. Działy merytoryczne, które po trzech tygodniach pytają, czemu shortlista jeszcze nie jest gotowa.

Ale prawdziwy problem leży głębiej. Większość firm stosujących AI w screeningu nie wie, jak ich algorytmy oceniają. Nie znają wag. Nie potrafią wyjaśnić, dlaczego kandydat A jest na shortliście, a kandydat B nie. I właśnie to staje się ryzykiem.

Sprawa Mobley v. Workday czyni to namacalnym. Kandydat pozwał nie potencjalnego pracodawcę, lecz dostawcę oprogramowania, którego AI go odrzuciła. Sąd federalny w USA dopuścił pozew jako zbiorowy - z powodu systematycznej dyskryminacji ze względu na wiek, pochodzenie i niepełnosprawność. Badanie University of Washington wykazało: w screeningach CV wspieranych przez AI, nazwiska kojarzone z białym pochodzeniem były faworyzowane w 85 procentach przypadków. W niektórych grupach zawodowych czarnoskórzy kandydaci męscy byli poszkodowani w 100 procentach przypadków testowych.

To nie są hipotetyczne scenariusze. To toczące się postępowania i opublikowane wyniki badań.

Dlaczego wysokie ryzyko nie musi oznaczać wysokiego hamulca

UE świadomie sklasyfikowała screening kandydatów jako wysokie ryzyko - Załącznik III, punkt 4a. Systemy analizujące i filtrujące aplikacje podlegają pełnej kaskadzie obowiązków: system zarządzania ryzykiem (art. 9), jakość danych (art. 10), dokumentacja techniczna, obowiązki rejestracji, przejrzystość wobec kandydatów, nadzór ludzki.

To brzmi jak biurokracja. W rzeczywistości opisuje dokładnie architekturę, jakiej odpowiedzialny system screeningowy i tak potrzebuje. Pytanie brzmi nie czy, ale jak - i tu oddziela się operacyjne łatanie od wytrzymałej infrastruktury.

Kluczowa różnica: wiele firm traktuje screening AI jako monolityczny system. Aplikacja wchodzi, score wychodzi. Ale systemu monolitycznego nie da się audytować, wyjaśnić, zróżnicowanie sterować. Gdy score mówi 72 i nikt nie wie, czy to z powodu brakujących kompetencji językowych czy przerwy w CV, system jest regulacyjnie bezwartościowy.

Screening jako łańcuch pojedynczych decyzji

Candidate Screening Agent działa inaczej. Rozkłada proces screeningu na pojedyncze, udokumentowane kroki decyzyjne. Każdy krok ma zdefiniowanego decydenta: silnik reguł, AI lub człowiek.

Wpłynięcie aplikacji
    |
    v
[Reguły]    Kompletność formalna
    |
    v
[Reguły]    Kryteria K.O. (kwalifikacje, doświadczenie, język)
    |
    v
[Agent AI]  Semantyczne dopasowanie profilu
    |
    v
[Agent AI]  Ważony scoring + uzasadnienie per składowa
    |
    v
[Agent AI]  Kontrola uprzedzeń - wzorce statystyczne
    |
    v
[Człowiek]  Przegląd shortlisty i dostosowanie

Pierwsze dwa etapy są oparte na regułach. Żadne uczenie maszynowe, żadna czarna skrzynka. Kandydat bez wymaganego doświadczenia zawodowego nie odpada przez algorytm - odpada przez silnik reguł, który Rada Zakładowa zatwierdziła z wyprzedzeniem i który opiera się na obowiązujących przepisach Kodeksu Pracy.

Dopiero przy dopasowaniu profilu wchodzi agent AI. Analiza semantyczna porównuje CV i kwalifikacje z profilem wymagań. Ale - i to jest rdzeń architektoniczny - każda ocena cząstkowa jest uzasadniana osobno. Nie jeden score, lecz sześć lub osiem udokumentowanych ocen cząstkowych, które razem tworzą ranking.

Co ta architektura zapewnia regulacyjnie

Art. 14 EU AI Act wymaga nadzoru ludzkiego. Żadne gremium nie jest w stanie ręcznie przejrzeć 400 aplikacji i jednocześnie sprawować nadzór. Ale gremium może przejrzeć shortlistę z udokumentowanymi ocenami cząstkowymi. Może prześledzić, dlaczego kandydat A ma 89 punktów za dopasowanie kompetencji, a kandydat B 61. Może przeczytać raport uprzedzeń i rozpoznać, czy grupy wiekowe są systematycznie oceniane inaczej.

To jest różnica między formalną a merytoryczną zgodnością. Formalna zgodność odznacza wymagania. Merytoryczna zgodność buduje architekturę, w której nadzór ludzki faktycznie działa - ponieważ istnieje baza informacyjna.

Art. 13 wymaga przejrzystości wobec użytkowników i osób, których decyzja dotyczy. Gdy każda ocena jest uzasadniona, również odrzucony kandydat może prześledzić, na jakim kryterium jego aplikacja nie przeszła. Nie na ogólnym score, który nic nie wyjaśnia - lecz na konkretnych, nazwanych wymaganiach.

A art. 12 wymaga rejestrów umożliwiających późniejszą ocenę. Decision Log, który zapisuje każdy krok z datą, typem decydenta i uzasadnieniem, spełnia to nie jako efekt uboczny. To jest funkcja rdzeniowa.

Infrastruktura governance jako inwestycja

Candidate Screening Agent jest często pierwszym agentem wysokiego ryzyka, którego firma uruchamia produkcyjnie. Tym samym wymusza budowę infrastruktury, której żaden agent sam nie uzasadniłby, ale z której korzysta każdy kolejny agent wysokiego ryzyka.

Silnik monitoringu uprzedzeń, który tutaj rozpoznaje wzorce statystyczne w scoringu, jest reużywany przez Performance Review Agent, Merit Cycle Agent i Promotion Process Agent. Udokumentowana procedura scoringu - każda ocena z uzasadnieniem - staje się standardem dla każdego agenta przygotowującego decyzje dotyczące osób. Komunikacja odmowna zgodna z zasadami równego traktowania ustanawia szablony stosowane w całej komunikacji z pracownikami.

Screening nie jest więc izolowanym przypadkiem użycia. To fundament, na którym buduje się cała governance wysokiego ryzyka - udokumentowany, audytowalny i do obrony przed Radą Zakładową, zanim nadejdzie termin graniczny.

Tabela mikrodecyzji

Kto decyduje w tym agencie?

11 kroków decyzyjnych, podział według decydenta

27%(3/11)
Silnik reguł
deterministyczne
55%(6/11)
Agent AI
modelowe z poziomem pewności
18%(2/11)
Człowiek
jawnie przypisane
Człowiek
Silnik reguł
Agent AI
Każdy wiersz to decyzja. Rozwiń, aby zobaczyć protokół decyzyjny i możliwość sprzeciwu.
Parsowanie dokumentów aplikacyjnych Wyodrębnienie ustrukturyzowanych danych z CV, listu motywacyjnego, formularza aplikacyjnego Agent AI

Parsowanie dokumentów i ekstrakcja danych z różnorodnych formatów

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Dopasowanie kwalifikacji do wymagań Porównanie wyodrębnionych kwalifikacji z profilem wymagań stanowiskowych Agent AI

Dopasowanie wspomagane AI ze scorami pewności per wymaganie

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Identyfikacja luk kwalifikacyjnych Flagowanie wymagań niespełnionych jasno przez dane aplikacyjne Agent AI

Analiza luk porównująca profil z listą wymagań

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Generowanie ustrukturyzowanego profilu kandydata Prezentacja wyodrębnionych danych i oceny dopasowania rekruterowi Agent AI

Automatyczne składanie profilu dla spójnego przeglądu rekrutera

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Uruchomienie kontroli monitoringu uprzedzeń Analiza rozkładu outputów pod kątem wskaźników uprzedzeń demograficznych Agent AI

Statystyczna analiza uczciwości na outputach screeningowych

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Flagowanie obaw o uprzedzenia Alarmowanie zespołu compliance przy przekroczeniu progów wskaźników uprzedzeń Silnik reguł

Alertowanie progowe per zdefiniowane metryki uczciwości

Protokół decyzyjny

ID reguły i numer wersji
Dane wejściowe które uruchomiły regułę
Wynik obliczenia i zastosowana formuła

Możliwość sprzeciwu: Tak - zastosowanie reguły weryfikowalne. Sprzeciw przy błędnych danych lub złej wersji reguły.

Rekruter przegląda profil Ocena kandydata na podstawie ustrukturyzowanego profilu i własnej oceny Człowiek

Decyzja człowieka wymagana - AI dostarcza strukturę, nie werdykt

Protokół decyzyjny

ID decydenta i rola
Uzasadnienie decyzji
Znacznik czasu i kontekst

Możliwość sprzeciwu: Tak - przez przełożonego, radę zakładową lub formalny sprzeciw.

Rejestracja decyzji screeningowej Dokumentacja decyzji rekrutera z uzasadnieniem Człowiek

Obowiązkowa dokumentacja per wymóg ścieżki audytu EU AI Act

Protokół decyzyjny

ID decydenta i rola
Uzasadnienie decyzji
Znacznik czasu i kontekst

Możliwość sprzeciwu: Tak - przez przełożonego, radę zakładową lub formalny sprzeciw.

Logowanie decyzji do ścieżki audytu Przechowywanie kompletnego rekordu decyzji ze wszystkimi wejściami i wyjściami Silnik reguł

Automatyczne logowanie per wymogi dokumentacyjne systemu wysokiego ryzyka

Protokół decyzyjny

ID reguły i numer wersji
Dane wejściowe które uruchomiły regułę
Wynik obliczenia i zastosowana formuła

Możliwość sprzeciwu: Tak - zastosowanie reguły weryfikowalne. Sprzeciw przy błędnych danych lub złej wersji reguły.

Aktualizacja statusu kandydata Przeniesienie kandydata do następnego etapu lub odrzucenia Silnik reguł

Aktualizacja statusu na podstawie zarejestrowanej decyzji rekrutera

Protokół decyzyjny

ID reguły i numer wersji
Dane wejściowe które uruchomiły regułę
Wynik obliczenia i zastosowana formuła

Możliwość sprzeciwu: Tak - zastosowanie reguły weryfikowalne. Sprzeciw przy błędnych danych lub złej wersji reguły.

Generowanie dokumentacji odrzucenia Tworzenie powiadomienia o odrzuceniu zgodnego z RODO, jeśli ma zastosowanie Agent AI

Automatyczne generowanie powiadomienia per skonfigurowane szablony

Protokół decyzyjny

Wersja modelu i wynik pewności
Dane wejściowe i wynik klasyfikacji
Uzasadnienie decyzji (wyjaśnialność)
Ścieżka audytu z pełną identyfikowalnością

Możliwość sprzeciwu: Tak - w pełni udokumentowane, weryfikowalne przez ludzi, sprzeciw przez formalny proces.

Protokół decyzyjny i prawo do sprzeciwu

Każda decyzja, którą ten agent podejmuje lub przygotowuje, jest dokumentowana w pełnym protokole decyzyjnym. Dotknięci pracownicy mogą przeglądać, rozumieć i kwestionować każdą pojedynczą decyzję.

Jaka reguła w jakiej wersji została zastosowana?
Na jakich danych oparto decyzję?
Kto (człowiek, silnik reguł czy AI) zdecydował - i dlaczego?
Jak osoba dotknięta może złożyć sprzeciw?
Jak Decision Layer wymusza to architektonicznie →

Czy ten agent pasuje do Twojego procesu?

Analizujemy Twój konkretny proces i pokazujemy, jak ten agent wpisuje się w Twój krajobraz systemowy. 30 minut, bez przygotowania.

Przeanalizować proces

Uwagi dotyczące governance

EU AI Act III(4)(a): Wysokie ryzyko
Sklasyfikowany jako wysokiego ryzyka w ramach EU AI Act, Załącznik III, Sekcja 4(a) - systemy AI przeznaczone do użycia w rekrutacji lub selekcji kandydatów. Pełna ocena zgodności obowiązkowa przed wdrożeniem. Art. 26 ust. 7 wymaga poinformowania przedstawicieli pracowników przed wprowadzeniem systemu. Ciągły monitoring uprzedzeń jest wymagany, nie opcjonalny. Art. 13-14 RODO wymagają informowania kandydatów o automatycznym przetwarzaniu. Art. 22 RODO - prawo do niepodlegania wyłącznie automatycznym decyzjom - ma zastosowanie. Agent musi zapewniać, że człowiek podejmuje każdą decyzję screeningową. Wymogi governance tego agenta są najrygorystyczniejsze w katalogu. Decision Layer rozkłada każdy proces na indywidualne kroki decyzyjne i definiuje dla każdego: Człowiek, Silnik reguł lub Agent AI. Każda decyzja jest dokumentowana w pełnym protokole decyzyjnym. Dotknięci pracownicy mogą zrozumieć i zakwestionować każdą zautomatyzowaną decyzję.

Panel wyników

Agent Readiness 64-71%
Governance Complexity 74-81%
Economic Impact 78-85%
Lighthouse Effect 76-83%
Implementation Complexity 51-58%
Wolumen transakcji Codziennie

Wymagania wstępne

  • System śledzenia kandydatów (ATS) z ustrukturyzowanym modelem danych
  • Profile wymagań stanowiskowych z mierzalnymi kryteriami kwalifikacyjnymi
  • Dokumentacja oceny zgodności EU AI Act
  • Framework monitoringu uprzedzeń ze zdefiniowanymi metrykami uczciwości
  • Infrastruktura logowania decyzji z pełną ścieżką audytu
  • Porozumienie z Radą Zakładową w sprawie screeningu wspieranego AI (art. 26 ust. 7 EU AI Act)
  • Ocena Skutków dla Ochrony Danych dla automatycznego przetwarzania kandydatów
  • Ocena wpływu na prawa podstawowe per wymogi EU AI Act
  • Workflow Human-in-the-Loop zapewniający brak automatycznych decyzji screeningowych

Wkład w infrastrukturę

Candidate Screening Agent to test lakmusowy gotowości governance do wysokiego ryzyka. Jeśli organizacja może wdrożyć tego agenta z pełną zgodnością EU AI Act - ocena zgodności, monitoring uprzedzeń, logowanie decyzji, Human-in-the-Loop - może wdrożyć każdego agenta wysokiego ryzyka. Infrastruktura governance zwalidowana tutaj przenosi się bezpośrednio na Performance Review Documentation Agent, Merit Cycle Governance Agent i Promotion Process Agent. Buduje Decision Logging i Audit Trail wykorzystywane przez Decision Layer do zapewnienia możliwości śledzenia i kwestionowania każdej decyzji.

Co zawiera ta ocena: 9 slajdów dla Twojego zespołu kierowniczego

Spersonalizowana z Twoimi danymi. Wygenerowana w 2 minuty w przeglądarce. Bez przesyłania, bez logowania.

  1. 1

    Strona tytułowa - Nazwa procesu, punkty decyzyjne, potencjał automatyzacji

  2. 2

    Podsumowanie - Uwolnione FTE, koszt na transakcję, data progu rentowności

  3. 3

    Stan obecny - Wolumen transakcji, koszty błędów, scenariusz wzrostu

  4. 4

    Architektura rozwiązania - Człowiek - silnik reguł - agent AI

  5. 5

    Governance - EU AI Act, rada zakładowa/GoBD, ścieżka audytu

  6. 6

    Analiza ryzyka - 5 ryzyk z prawdopodobieństwem i środkami zaradczymi

  7. 7

    Mapa drogowa - Plan 3-fazowy z konkretnymi datami

  8. 8

    Business case - Porównanie 3 scenariuszy plus matryca wrażliwości

  9. 9

    Propozycja dyskusji - Konkretne kolejne kroki

Zawiera: porównanie 3 scenariuszy

Brak działania vs. nowe zatrudnienie vs. automatyzacja - z Twoim poziomem wynagrodzeń, Twoją stopą błędów i Twoim planem wzrostu.

Pokaż metodologię obliczeń

Hourly rate: Annual salary (your input) × 1.3 employer burden ÷ 1,720 annual work hours

Savings: Transactions × 12 × automation rate × minutes/transaction × hourly rate × economic factor

Quality ROI: Error reduction × transactions × 12 × EUR 260/error (APQC Open Standards Benchmarking)

FTE: Saved hours ÷ 1,720 annual work hours

Break-Even: Benchmark investment ÷ monthly combined savings (efficiency + quality)

New hire: Annual salary × 1.3 + EUR 12,000 recruiting per FTE

Wszystkie dane pozostają w Twojej przeglądarce. Nic nie jest przesyłane na serwer.

Candidate Screening Agent

Initial assessment for your leadership team

A thorough initial assessment in 2 minutes - with your numbers, your risk profile and industry benchmarks. No vendor logo, no sales pitch.

30K120K
1%15%

All data stays in your browser. Nothing is transmitted.

Agent Blueprint dostępny

Dostępny jest pełny blueprint Candidate Screening Agent z rozkładem mikrodecyzji, wariantami branżowymi i szczegółami implementacji.

Zobacz blueprint

Często zadawane pytania

Czy agent automatycznie odrzuca kandydatów?

Nie. Agent strukturyzuje informacje do przeglądu przez człowieka. Każda decyzja screeningowa jest podejmowana przez rekrutera. EU AI Act zabrania w pełni automatycznych decyzji w rekrutacji - ten agent jest zaprojektowany z Human-in-the-Loop jako fundamentalnym wymogiem architekturalnym.

Dlaczego to agent Q3, a nie Q1?

Wymogi governance dla AI wysokiego ryzyka w rekrutacji są najbardziej wymagające w katalogu. Logowanie decyzji, monitoring uprzedzeń, ocena zgodności i porozumienie z Radą Zakładową muszą być na miejscu przed wdrożeniem. Te możliwości są budowane i weryfikowane w agentach Q1 (payroll, ewidencja czasu) w pierwszej kolejności.

Jak działa monitoring uprzedzeń?

Agent ciągle analizuje rozkład outputów w grupach demograficznych (tam, gdzie jest to dozwolone prawnie). Jeśli pojawiają się systematyczne dysproporcje - np. kandydaci z pewnych środowisk konsekwentnie otrzymują niższe score dopasowania - system flaguje to do przeglądu compliance. Monitoring jest statystyczny i ciągły, nie jednorazową certyfikacją.

Co dalej?

1

30 minut

Pierwsza rozmowa

Analizujemy Twój proces i identyfikujemy optymalny punkt startowy.

2

1 tydzień

Discover

Mapowanie logiki decyzyjnej. Reguły udokumentowane, Decision Layer zaprojektowany.

3

3-4 tygodnie

Build

Produkcyjny agent w Twojej infrastrukturze. Governance, audit trail, cert-ready od dnia 1.

4

12-18 miesięcy

Samodzielność

Pełny dostęp do kodu źródłowego, promptów i wersji reguł. Bez vendor lock-in.

Wdrożyć tego agenta?

Oceniamy Twój krajobraz procesowy i pokazujemy, jak ten agent pasuje do Twojej infrastruktury.