Zum Inhalt springen
W K
EU AI Act III(4)(a): Hochrisiko Q3

Candidate-Screening Agent

Bewerbungen strukturiert auswerten - mit dokumentierter Entscheidungslogik pro Schritt.

Analysiert Bewerbungen gegen Anforderungsprofile und erstellt strukturierte Shortlists. Hochrisiko-System nach EU AI Act mit erhöhter Governance.

Prozess analysieren lassen
Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

K.O.-Kriterien per Regeln, Profil-Matching per KI, Bias-Prüfung und Eskalation

Der Agent filtert formale Vollständigkeit und K.O.-Kriterien deterministisch, klassifiziert per KI-Extraktion die Passung zum Anforderungsprofil mit einzeln begründeten Teilwertungen und eskaliert statistische Bias-Muster vor Erstellung der Shortlist.

Ergebnis: Bei 200 bis 800 Bewerbungen pro Stelle eine auditierbare Shortlist statt Blackbox-Score, vollständige Dokumentation je Kandidat nach EU AI Act Art. 12 bis 14 ab Stichtag August 2026.

46% Regelwerk
45% KI-Agent
9% Mensch

Der architektonische Kern ist die Zerlegung des Screening-Prozesses in einzelne, dokumentierte Entscheidungsschritte:

August 2026: Stichtag für jeden Recruiting-Automaten

Ab August 2026 ist jedes KI-System, das Bewerbungen filtert, ein Hochrisiko-System nach EU AI Act. Wer bis dahin keine dokumentierte Entscheidungsarchitektur vorweisen kann, muss den Automaten abschalten. Nicht irgendwann. An einem Stichtag.

Das ist die Realität, in der Recruiting-Abteilungen gerade planen. Und sie ist unbequem, weil Candidate Screening gleichzeitig der Prozess ist, bei dem Automatisierung den größten Hebel hat - und die größten Risiken birgt.

Das Problem hinter dem Problem

Dieser Agent folgt dem Decision Layer-Prinzip: jede Entscheidung ist entweder regelbasiert, KI-assistiert oder explizit einem Menschen zugeordnet.

Die offensichtliche Herausforderung kennt jeder: 200, 400, manchmal 800 Bewerbungen pro Stelle. Recruiter, die nach dem fünfzigsten Lebenslauf nicht mehr dieselben Maßstäbe anlegen wie beim ersten. Fachabteilungen, die nach drei Wochen fragen, warum die Shortlist noch nicht steht.

Aber das eigentliche Problem liegt tiefer. Die meisten Unternehmen, die KI im Screening einsetzen, wissen nicht, wie ihre Algorithmen bewerten. Sie kennen die Gewichtung nicht. Sie können nicht erklären, warum Kandidat A auf der Shortlist steht und Kandidat B nicht. Und genau das wird zum Risiko.

Die Fallakte Mobley v. Workday macht das greifbar. Ein Bewerber verklagt nicht seinen potentiellen Arbeitgeber, sondern den Software-Anbieter, dessen KI ihn aussortiert hat. Das US-Bundesgericht lässt die Klage als Sammelklage zu - wegen systematischer Diskriminierung nach Alter, Herkunft und Behinderung. Eine Studie der University of Washington zeigt: In KI-gestützten Lebenslauf-Screenings wurden Namen, die mit weißer Herkunft assoziiert werden, in 85% der Fälle bevorzugt. In manchen Berufsgruppen waren schwarze männliche Bewerber in 100% der Testfälle benachteiligt.

Das sind keine hypothetischen Szenarien. Das sind laufende Verfahren und publizierte Forschungsergebnisse.

Warum Hochrisiko nicht Hochbremse bedeuten muss

Die EU hat Candidate Screening bewusst als Hochrisiko eingestuft - Annex III, Punkt 4a. Systeme, die Bewerbungen analysieren und filtern, unterliegen der vollen Pflichtenkaskade: Risikomanagementsystem nach Art. 9, Datenqualität nach Art. 10, technische Dokumentation, Aufzeichnungspflichten, Transparenz gegenüber Bewerbern, menschliche Aufsicht.

Das klingt nach Bürokratie. Tatsächlich beschreibt es genau die Architektur, die ein verantwortungsvolles Screening-System ohnehin braucht. Die Frage ist nicht ob, sondern wie - und hier trennt sich operatives Flickwerk von belastbarer Infrastruktur.

Der entscheidende Unterschied: Viele Unternehmen behandeln KI-Screening als ein monolithisches System. Bewerbung rein, Score raus. Aber ein monolithisches System lässt sich nicht auditieren, nicht erklären, nicht differenziert steuern. Wenn der Score 72 sagt und niemand weiß, ob das an fehlenden Sprachkenntnissen oder an einer Lücke im Lebenslauf liegt, ist das System regulatorisch wertlos.

Screening als Kette von Einzelentscheidungen

Der Candidate-Screening-Agent arbeitet anders. Er zerlegt den Screening-Prozess in einzelne, dokumentierte Entscheidungsschritte. Jeder Schritt hat einen definierten Entscheider: Regelwerk, KI oder Mensch.

Bewerbungseingang
    |
    v
[Regelwerk] Formale Vollständigkeit
    |
    v
[Regelwerk] K.O.-Kriterien (Qualifikation, Erfahrung, Sprache)
    |
    v
[KI-Agent]  Semantisches Profil-Matching
    |
    v
[KI-Agent]  Gewichtetes Scoring + Begründung pro Teilwert
    |
    v
[KI-Agent]  Bias-Prüfung auf statistische Muster
    |
    v
[Mensch]    Shortlist-Review und Anpassung

Die ersten beiden Stufen sind regelbasiert. Kein Machine Learning, keine Blackbox. Ein Kandidat ohne geforderte Berufserfahrung fällt nicht durch einen Algorithmus - er fällt durch ein Regelwerk, das der Betriebsrat vorab freigegeben hat und das sich auf Paragraph 95 BetrVG stützt.

Erst beim Profil-Matching kommt der KI-Agent zum Einsatz. Die semantische Analyse gleicht Lebenslauf und Qualifikationen gegen das Anforderungsprofil ab. Aber - und das ist der architektonische Kern - jede Teilbewertung wird einzeln begründet. Nicht ein Score, sondern sechs oder acht dokumentierte Einzelwertungen, die zusammen das Ranking ergeben.

Was diese Architektur regulatorisch leistet

Art. 14 EU AI Act fordert menschliche Aufsicht. Kein Gremium kann 400 Bewerbungen manuell prüfen und gleichzeitig Aufsicht führen. Aber ein Gremium kann eine Shortlist mit dokumentierten Einzelbewertungen prüfen. Es kann nachvollziehen, warum Kandidat A bei Kompetenzfit 89 Punkte hat und Kandidat B 61. Es kann den Bias-Report lesen und erkennen, ob Altersgruppen systematisch anders bewertet werden.

Das ist der Unterschied zwischen formaler und substanzieller Compliance. Formale Compliance hakt Anforderungen ab. Substanzielle Compliance baut eine Architektur, in der menschliche Aufsicht tatsächlich funktioniert - weil die Informationsbasis dafür existiert.

Art. 13 verlangt Transparenz gegenüber Nutzern und Betroffenen. Wenn jede Bewertung begründet ist, kann auch ein abgelehnter Bewerber nachvollziehen, an welchem Kriterium seine Bewerbung nicht bestanden hat. Nicht an einem Gesamtscore, der nichts erklärt - sondern an konkreten, benannten Anforderungen.

Und Art. 12 verlangt Aufzeichnungen, die eine nachträgliche Bewertung ermöglichen. Ein Decision Log, der jeden Schritt mit Zeitstempel, Entscheider-Typ und Begründung festhält, erfüllt das nicht als Nebenprodukt. Es ist die Kernfunktion.

Die Governance-Infrastruktur als Investition

Der Candidate-Screening-Agent ist häufig der erste Hochrisiko-Agent, den ein Unternehmen produktiv schaltet. Damit erzwingt er den Aufbau von Infrastruktur, die kein Agent allein rechtfertigen würde, die aber jeder nachfolgende Hochrisiko-Agent mitnutzt.

Die Bias-Monitoring-Engine, die hier statistische Muster im Scoring erkennt, wird beim Performance-Review-Agent, beim Merit-Cycle-Agent, beim Promotion-Process-Agent wiederverwendet. Das dokumentierte Scoring-Verfahren - jede Bewertung mit Begründung - wird zum Standard für jeden Agent, der personenbezogene Entscheidungen vorbereitet. Die AGG-konforme Absage-Kommunikation etabliert Templates, die in der gesamten Mitarbeiterkommunikation nachgenutzt werden.

Screening ist damit kein isolierter Anwendungsfall. Es ist das Fundament, auf dem die gesamte Hochrisiko-Governance aufbaut - dokumentiert, auditfähig und vor dem Betriebsrat vertretbar, bevor der Stichtag kommt.

Micro-Decision-Tabelle

Wer entscheidet bei diesem Agent?

11 Entscheidungsschritte, aufgeteilt nach Decider

46%(5/11)
Regelwerk
deterministisch
45%(5/11)
KI-Agent
modellbasiert mit Confidence
9%(1/11)
Mensch
explizit zugewiesen
Mensch
Regelwerk
KI-Agent
Jede Zeile ist eine Entscheidung. Aufklappen zeigt die Entscheidungsakte und ob man anfechten kann.
Bewerbung eingeht Ist die Bewerbung formal vollständig? Regelwerk

Pflichtfelder-Prüfung nach Stellenprofil

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Mindestanforderungen prüfen Erfüllt der Kandidat die K.O.-Kriterien? Regelwerk

Regelbasierte Prüfung: Qualifikation, Berufserfahrung, Sprachkenntnisse

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Profil-Matching Wie gut passt der Kandidat zum Anforderungsprofil? KI-Agent

Semantische Analyse von Lebenslauf gegen Anforderungsprofil

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Scoring Welchen Eignungsgrad erhält der Kandidat? KI-Agent

Gewichtetes Scoring nach Qualifikation, Erfahrung, Kompetenzfit

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Scoring-Begründung dokumentieren Warum hat der Kandidat diesen Score erhalten? KI-Agent

Automatische Begründung jeder Teilbewertung für Audit Trail

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Bias-Check Zeigen sich systematische Muster im Scoring? KI-Agent

Statistische Prüfung auf Alter-, Geschlechts- oder Herkunfts-Bias

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Bias-Befund eskalieren Wird ein Bias-Problem an HR gemeldet? Regelwerk

Schwellenwert-basierte Eskalation bei signifikanten Mustern

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Shortlist erstellen Welche Kandidaten werden der Fachabteilung vorgeschlagen? KI-Agent

Ranked Liste der Top-Kandidaten mit Begründung

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Shortlist-Review Wird die vorgeschlagene Shortlist akzeptiert? Mensch

Recruiter prüft und passt die Shortlist an

Entscheidungsakte

Entscheider-ID und Rolle
Begründung der Entscheidung
Zeitstempel und Kontext

Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.

Absage-Begründung Welche Begründung erhalten abgelehnte Kandidaten? Regelwerk

Standardisierte, AGG-konforme Absagebegründung

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Betriebsrats-Reporting Wird der Betriebsrat über den Screening-Prozess informiert? Regelwerk

Quartalsweises Reporting nach BV: Kennzahlen, Bias-Analyse, Ausnahmen

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Entscheidungsakte und Anfechtbarkeit

Jede Entscheidung, die dieser Agent trifft oder vorbereitet, wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene Mitarbeitende können jede einzelne Entscheidung einsehen, nachvollziehen und anfechten.

Welche Regel in welcher Version wurde angewandt?
Welche Daten lagen der Entscheidung zugrunde?
Wer (Mensch, Regelwerk oder KI) hat entschieden - und warum?
Wie kann die betroffene Person Einspruch einlegen?
So setzt der Decision Layer das architektonisch um →

Passt dieser Agent zu Ihrem Prozess?

Wir analysieren Ihren konkreten HR-Prozess und zeigen, wie dieser Agent in Ihre Systemlandschaft passt. 30 Minuten, keine Vorbereitung nötig.

Prozess analysieren lassen

Governance-Hinweise

EU AI Act III(4)(a): Hochrisiko
Hochrisiko-System nach EU AI Act Annex III(4)(a) - Analyse und Filterung von Bewerbungen. Pflichten: Risikomanagementsystem (Art. 9), Datenqualitätsanforderungen (Art. 10), technische Dokumentation (Art. 11), Aufzeichnungspflichten (Art. 12), Transparenz gegenüber Nutzern (Art. 13), menschliche Aufsicht (Art. 14). Betriebsrat: Mitbestimmung nach BetrVG Paragraph 94 (Personalfragebogen) und Paragraph 95 (Auswahlrichtlinien). Die Betriebsvereinbarung muss vor dem Produktivbetrieb abgeschlossen sein. AGG: Jede Entscheidung muss diskriminierungsfrei und nachvollziehbar dokumentiert sein. Empfehlung: Candidate Screening ist der Agent, der die Governance-Infrastruktur aus Q1 am stärksten beansprucht - Decision Logging, Regelwerk-Versionierung und Exception Routing müssen produktionsreif sein. Der Decision Layer zerlegt jeden Prozess in einzelne Entscheidungsschritte und definiert für jeden Schritt: Mensch, Regelwerk oder KI-Agent. Jede Entscheidung wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene Mitarbeitende können jede automatisierte Entscheidung nachvollziehen und anfechten.

Bewertung

Agent Readiness 64-71%
Governance-Komplexität 74-81%
Economic Impact 78-85%
Leuchtturm-Wirkung 76-83%
Implementation Complexity 51-58%
Transaktionsvolumen Täglich

Voraussetzungen

  • Applicant Tracking System (ATS) mit API-Zugang
  • Strukturierte Anforderungsprofile pro Stelle
  • Betriebsvereinbarung nach BetrVG Paragraph 94/95 für KI-gestütztes Screening
  • Risikomanagementsystem nach EU AI Act Art. 9
  • Bias-Monitoring-Framework
  • AGG-konforme Absage-Templates

Infrastruktur-Beitrag

Die Bias-Monitoring-Engine wird von allen Hochrisiko-Agenten wiederverwendet (Merit Cycle, Performance Review, Promotion). Das dokumentierte Scoring-Verfahren (jede Bewertung mit Begründung) wird zum Standard für jeden Agent, der personenbezogene Entscheidungen vorbereitet. Die AGG-konforme Kommunikation bildet die Grundlage für alle Kandidaten-Kommunikation. Baut Decision Logging und Audit Trail auf, die im Decision Layer für Nachvollziehbarkeit und Anfechtbarkeit jeder Entscheidung benötigt werden.

Was diese Erstbewertung enthält: 9 Slides für Ihr Führungsteam

Personalisiert mit Ihren Zahlen. Generiert in 2 Minuten direkt im Browser. Kein Upload, kein Login.

  1. 1

    Titelfolie - Prozessname, Entscheidungspunkte, Automatisierungspotenzial

  2. 2

    Executive Summary - FTE-Freisetzung, Kosten pro Vorgang vorher/nachher, Break-Even-Datum, Kosten des Wartens

  3. 3

    Ausgangslage - Transaktionsvolumen, Fehlerkosten, Wachstumsszenario mit FTE-Vergleich

  4. 4

    Lösungsarchitektur - Mensch - Regelwerk - KI-Agent mit konkreten Entscheidungspunkten

  5. 5

    Governance - EU AI Act, Betriebsrat (§87 BetrVG), Audit Trail - mit Ampelstatus

  6. 6

    Risikoanalyse - 5 Risiken mit Eintrittswahrscheinlichkeit, Auswirkung und Gegenmaßnahme

  7. 7

    Roadmap - 3-Phasen-Plan mit konkreten Kalenderdaten und Go/No-Go

  8. 8

    Business Case - 3-Szenarien-Vergleich (Nichtstun/Neueinstellung/Automatisierung) plus 3×3-Sensitivitätsmatrix

  9. 9

    Diskussionsvorschlag - Konkrete nächste Schritte mit Zeitplan und Verantwortlichkeiten

Enthält: 3-Szenarien-Vergleich

Nichtstun vs. Neueinstellung vs. Automatisierung - mit Ihrem Gehaltsniveau, Ihrer Fehlerquote und Ihrem Wachstumsplan. Die eine Slide, die Ihr CFO als erstes sehen will.

Berechnungsmethodik anzeigen

Stundensatz: Jahresgehalt (Ihre Eingabe) × 1,3 AG-Anteil ÷ 1.720 Jahresarbeitsstunden

Einsparung: Vorgänge × 12 × Automatisierungsrate × Minuten/Vorgang × Stundensatz × Economic Factor

Qualitäts-ROI: Fehlerreduktion × Vorgänge × 12 × EUR 260/Fehler (APQC Open Standards Benchmarking)

FTE: Eingesparte Stunden ÷ 1.720 Jahresarbeitsstunden

Break-Even: Benchmark-Investition ÷ monatliche Gesamteinsparung (Effizienz + Qualität)

Neueinstellung: Jahresgehalt × 1,3 + EUR 12.000 Recruiting pro FTE

Alle Daten bleiben in Ihrem Browser. Nichts wird an Server übertragen.

Candidate-Screening Agent

Erstbewertung für Ihr Führungsteam

In 2 Minuten eine fundierte Erstbewertung - mit Ihren Zahlen, Ihrem Risikoprofil und Branchenbenchmarks. Kein Anbieter-Logo, kein Vendor-Pitch.

30K120K
1%15%

Alle Daten bleiben in Ihrem Browser. Nichts wird übertragen.

Agent-Blueprint verfügbar

Für Candidate-Screening Agent existiert ein vollständiger Blueprint mit Micro-Decision-Zerlegung, Branchenvarianten und Implementierungsdetails.

Blueprint ansehen

Häufige Fragen

Trifft der Agent Einstellungsentscheidungen?

Nein. Der Agent erstellt eine strukturierte, begründete Shortlist. Die Entscheidung, welche Kandidaten zum Interview eingeladen werden und wer eingestellt wird, liegt beim Recruiting-Team und der Fachabteilung. Jede automatische Bewertung ist nachvollziehbar dokumentiert.

Wie wird Diskriminierung verhindert?

Drei Mechanismen: Erstens prüft der Bias-Check statistische Muster im Scoring nach Alter, Geschlecht und Herkunft. Zweitens basiert die Erstprüfung auf K.O.-Kriterien, die vorab definiert und mit dem Betriebsrat abgestimmt sind. Drittens wird jede Bewertung mit Begründung dokumentiert - Abweichungen werden erkannt und eskaliert.

Warum ist dieser Agent Hochrisiko nach EU AI Act?

Annex III(4)(a) klassifiziert Systeme als Hochrisiko, die zur Analyse und Filterung von Bewerbungen eingesetzt werden. Die Hochrisiko-Klassifikation erfordert umfassende Governance - Risikomanagementsystem, Datenqualität, Transparenz, menschliche Aufsicht. Der Decision Layer stellt diese Anforderungen strukturell sicher.

Was passiert als Nächstes?

1

30 Minuten

Erstgespräch

Wir analysieren Ihren Prozess und identifizieren den optimalen Startpunkt.

2

1 Woche

Discover

Mapping Ihrer Entscheidungslogik. Regelwerke dokumentiert, Decision Layer designt.

3

3-4 Wochen

Build

Produktiver Agent in Ihrer Infrastruktur. Governance, Audit Trail, prüfungsfähig ab Tag 1.

4

12-18 Monate

Eigenständig

Voller Zugang zu Quellcode, Prompts und Regelversionen. Kein Vendor Lock-in.

Diesen Agent implementieren?

Wir bewerten Ihre Prozesslandschaft und zeigen, wie dieser Agent in Ihre Infrastruktur passt.