Candidate-Screening Agent
Bewerbungen strukturiert auswerten - mit dokumentierter Entscheidungslogik pro Schritt.
Analysiert Bewerbungen gegen Anforderungsprofile und erstellt strukturierte Shortlists. Hochrisiko-System nach EU AI Act mit erhöhter Governance.
Prozess analysieren lassen
K.O.-Kriterien per Regeln, Profil-Matching per KI, Bias-Prüfung und Eskalation
Der Agent filtert formale Vollständigkeit und K.O.-Kriterien deterministisch, klassifiziert per KI-Extraktion die Passung zum Anforderungsprofil mit einzeln begründeten Teilwertungen und eskaliert statistische Bias-Muster vor Erstellung der Shortlist.
Ergebnis: Bei 200 bis 800 Bewerbungen pro Stelle eine auditierbare Shortlist statt Blackbox-Score, vollständige Dokumentation je Kandidat nach EU AI Act Art. 12 bis 14 ab Stichtag August 2026.
Der architektonische Kern ist die Zerlegung des Screening-Prozesses in einzelne, dokumentierte Entscheidungsschritte:
August 2026: Stichtag für jeden Recruiting-Automaten
Ab August 2026 ist jedes KI-System, das Bewerbungen filtert, ein Hochrisiko-System nach EU AI Act. Wer bis dahin keine dokumentierte Entscheidungsarchitektur vorweisen kann, muss den Automaten abschalten. Nicht irgendwann. An einem Stichtag.
Das ist die Realität, in der Recruiting-Abteilungen gerade planen. Und sie ist unbequem, weil Candidate Screening gleichzeitig der Prozess ist, bei dem Automatisierung den größten Hebel hat - und die größten Risiken birgt.
Das Problem hinter dem Problem
Dieser Agent folgt dem Decision Layer-Prinzip: jede Entscheidung ist entweder regelbasiert, KI-assistiert oder explizit einem Menschen zugeordnet.
Die offensichtliche Herausforderung kennt jeder: 200, 400, manchmal 800 Bewerbungen pro Stelle. Recruiter, die nach dem fünfzigsten Lebenslauf nicht mehr dieselben Maßstäbe anlegen wie beim ersten. Fachabteilungen, die nach drei Wochen fragen, warum die Shortlist noch nicht steht.
Aber das eigentliche Problem liegt tiefer. Die meisten Unternehmen, die KI im Screening einsetzen, wissen nicht, wie ihre Algorithmen bewerten. Sie kennen die Gewichtung nicht. Sie können nicht erklären, warum Kandidat A auf der Shortlist steht und Kandidat B nicht. Und genau das wird zum Risiko.
Die Fallakte Mobley v. Workday macht das greifbar. Ein Bewerber verklagt nicht seinen potentiellen Arbeitgeber, sondern den Software-Anbieter, dessen KI ihn aussortiert hat. Das US-Bundesgericht lässt die Klage als Sammelklage zu - wegen systematischer Diskriminierung nach Alter, Herkunft und Behinderung. Eine Studie der University of Washington zeigt: In KI-gestützten Lebenslauf-Screenings wurden Namen, die mit weißer Herkunft assoziiert werden, in 85% der Fälle bevorzugt. In manchen Berufsgruppen waren schwarze männliche Bewerber in 100% der Testfälle benachteiligt.
Das sind keine hypothetischen Szenarien. Das sind laufende Verfahren und publizierte Forschungsergebnisse.
Warum Hochrisiko nicht Hochbremse bedeuten muss
Die EU hat Candidate Screening bewusst als Hochrisiko eingestuft - Annex III, Punkt 4a. Systeme, die Bewerbungen analysieren und filtern, unterliegen der vollen Pflichtenkaskade: Risikomanagementsystem nach Art. 9, Datenqualität nach Art. 10, technische Dokumentation, Aufzeichnungspflichten, Transparenz gegenüber Bewerbern, menschliche Aufsicht.
Das klingt nach Bürokratie. Tatsächlich beschreibt es genau die Architektur, die ein verantwortungsvolles Screening-System ohnehin braucht. Die Frage ist nicht ob, sondern wie - und hier trennt sich operatives Flickwerk von belastbarer Infrastruktur.
Der entscheidende Unterschied: Viele Unternehmen behandeln KI-Screening als ein monolithisches System. Bewerbung rein, Score raus. Aber ein monolithisches System lässt sich nicht auditieren, nicht erklären, nicht differenziert steuern. Wenn der Score 72 sagt und niemand weiß, ob das an fehlenden Sprachkenntnissen oder an einer Lücke im Lebenslauf liegt, ist das System regulatorisch wertlos.
Screening als Kette von Einzelentscheidungen
Der Candidate-Screening-Agent arbeitet anders. Er zerlegt den Screening-Prozess in einzelne, dokumentierte Entscheidungsschritte. Jeder Schritt hat einen definierten Entscheider: Regelwerk, KI oder Mensch.
Bewerbungseingang
|
v
[Regelwerk] Formale Vollständigkeit
|
v
[Regelwerk] K.O.-Kriterien (Qualifikation, Erfahrung, Sprache)
|
v
[KI-Agent] Semantisches Profil-Matching
|
v
[KI-Agent] Gewichtetes Scoring + Begründung pro Teilwert
|
v
[KI-Agent] Bias-Prüfung auf statistische Muster
|
v
[Mensch] Shortlist-Review und Anpassung
Die ersten beiden Stufen sind regelbasiert. Kein Machine Learning, keine Blackbox. Ein Kandidat ohne geforderte Berufserfahrung fällt nicht durch einen Algorithmus - er fällt durch ein Regelwerk, das der Betriebsrat vorab freigegeben hat und das sich auf Paragraph 95 BetrVG stützt.
Erst beim Profil-Matching kommt der KI-Agent zum Einsatz. Die semantische Analyse gleicht Lebenslauf und Qualifikationen gegen das Anforderungsprofil ab. Aber - und das ist der architektonische Kern - jede Teilbewertung wird einzeln begründet. Nicht ein Score, sondern sechs oder acht dokumentierte Einzelwertungen, die zusammen das Ranking ergeben.
Was diese Architektur regulatorisch leistet
Art. 14 EU AI Act fordert menschliche Aufsicht. Kein Gremium kann 400 Bewerbungen manuell prüfen und gleichzeitig Aufsicht führen. Aber ein Gremium kann eine Shortlist mit dokumentierten Einzelbewertungen prüfen. Es kann nachvollziehen, warum Kandidat A bei Kompetenzfit 89 Punkte hat und Kandidat B 61. Es kann den Bias-Report lesen und erkennen, ob Altersgruppen systematisch anders bewertet werden.
Das ist der Unterschied zwischen formaler und substanzieller Compliance. Formale Compliance hakt Anforderungen ab. Substanzielle Compliance baut eine Architektur, in der menschliche Aufsicht tatsächlich funktioniert - weil die Informationsbasis dafür existiert.
Art. 13 verlangt Transparenz gegenüber Nutzern und Betroffenen. Wenn jede Bewertung begründet ist, kann auch ein abgelehnter Bewerber nachvollziehen, an welchem Kriterium seine Bewerbung nicht bestanden hat. Nicht an einem Gesamtscore, der nichts erklärt - sondern an konkreten, benannten Anforderungen.
Und Art. 12 verlangt Aufzeichnungen, die eine nachträgliche Bewertung ermöglichen. Ein Decision Log, der jeden Schritt mit Zeitstempel, Entscheider-Typ und Begründung festhält, erfüllt das nicht als Nebenprodukt. Es ist die Kernfunktion.
Die Governance-Infrastruktur als Investition
Der Candidate-Screening-Agent ist häufig der erste Hochrisiko-Agent, den ein Unternehmen produktiv schaltet. Damit erzwingt er den Aufbau von Infrastruktur, die kein Agent allein rechtfertigen würde, die aber jeder nachfolgende Hochrisiko-Agent mitnutzt.
Die Bias-Monitoring-Engine, die hier statistische Muster im Scoring erkennt, wird beim Performance-Review-Agent, beim Merit-Cycle-Agent, beim Promotion-Process-Agent wiederverwendet. Das dokumentierte Scoring-Verfahren - jede Bewertung mit Begründung - wird zum Standard für jeden Agent, der personenbezogene Entscheidungen vorbereitet. Die AGG-konforme Absage-Kommunikation etabliert Templates, die in der gesamten Mitarbeiterkommunikation nachgenutzt werden.
Screening ist damit kein isolierter Anwendungsfall. Es ist das Fundament, auf dem die gesamte Hochrisiko-Governance aufbaut - dokumentiert, auditfähig und vor dem Betriebsrat vertretbar, bevor der Stichtag kommt.
Micro-Decision-Tabelle
Wer entscheidet bei diesem Agent?
11 Entscheidungsschritte, aufgeteilt nach Decider
Bewerbung eingeht Ist die Bewerbung formal vollständig? Regelwerk
Pflichtfelder-Prüfung nach Stellenprofil
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Mindestanforderungen prüfen Erfüllt der Kandidat die K.O.-Kriterien? Regelwerk
Regelbasierte Prüfung: Qualifikation, Berufserfahrung, Sprachkenntnisse
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Profil-Matching Wie gut passt der Kandidat zum Anforderungsprofil? KI-Agent
Semantische Analyse von Lebenslauf gegen Anforderungsprofil
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Scoring Welchen Eignungsgrad erhält der Kandidat? KI-Agent
Gewichtetes Scoring nach Qualifikation, Erfahrung, Kompetenzfit
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Scoring-Begründung dokumentieren Warum hat der Kandidat diesen Score erhalten? KI-Agent
Automatische Begründung jeder Teilbewertung für Audit Trail
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Bias-Check Zeigen sich systematische Muster im Scoring? KI-Agent
Statistische Prüfung auf Alter-, Geschlechts- oder Herkunfts-Bias
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Bias-Befund eskalieren Wird ein Bias-Problem an HR gemeldet? Regelwerk
Schwellenwert-basierte Eskalation bei signifikanten Mustern
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Shortlist erstellen Welche Kandidaten werden der Fachabteilung vorgeschlagen? KI-Agent
Ranked Liste der Top-Kandidaten mit Begründung
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Shortlist-Review Wird die vorgeschlagene Shortlist akzeptiert? Mensch
Recruiter prüft und passt die Shortlist an
Entscheidungsakte
Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.
Absage-Begründung Welche Begründung erhalten abgelehnte Kandidaten? Regelwerk
Standardisierte, AGG-konforme Absagebegründung
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Betriebsrats-Reporting Wird der Betriebsrat über den Screening-Prozess informiert? Regelwerk
Quartalsweises Reporting nach BV: Kennzahlen, Bias-Analyse, Ausnahmen
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Entscheidungsakte und Anfechtbarkeit
Jede Entscheidung, die dieser Agent trifft oder vorbereitet, wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene Mitarbeitende können jede einzelne Entscheidung einsehen, nachvollziehen und anfechten.
Passt dieser Agent zu Ihrem Prozess?
Wir analysieren Ihren konkreten HR-Prozess und zeigen, wie dieser Agent in Ihre Systemlandschaft passt. 30 Minuten, keine Vorbereitung nötig.
Prozess analysieren lassenGovernance-Hinweise
Bewertung
Voraussetzungen
- Applicant Tracking System (ATS) mit API-Zugang
- Strukturierte Anforderungsprofile pro Stelle
- Betriebsvereinbarung nach BetrVG Paragraph 94/95 für KI-gestütztes Screening
- Risikomanagementsystem nach EU AI Act Art. 9
- Bias-Monitoring-Framework
- AGG-konforme Absage-Templates
Infrastruktur-Beitrag
Was diese Erstbewertung enthält: 9 Slides für Ihr Führungsteam
Personalisiert mit Ihren Zahlen. Generiert in 2 Minuten direkt im Browser. Kein Upload, kein Login.
- 1
Titelfolie - Prozessname, Entscheidungspunkte, Automatisierungspotenzial
- 2
Executive Summary - FTE-Freisetzung, Kosten pro Vorgang vorher/nachher, Break-Even-Datum, Kosten des Wartens
- 3
Ausgangslage - Transaktionsvolumen, Fehlerkosten, Wachstumsszenario mit FTE-Vergleich
- 4
Lösungsarchitektur - Mensch - Regelwerk - KI-Agent mit konkreten Entscheidungspunkten
- 5
Governance - EU AI Act, Betriebsrat (§87 BetrVG), Audit Trail - mit Ampelstatus
- 6
Risikoanalyse - 5 Risiken mit Eintrittswahrscheinlichkeit, Auswirkung und Gegenmaßnahme
- 7
Roadmap - 3-Phasen-Plan mit konkreten Kalenderdaten und Go/No-Go
- 8
Business Case - 3-Szenarien-Vergleich (Nichtstun/Neueinstellung/Automatisierung) plus 3×3-Sensitivitätsmatrix
- 9
Diskussionsvorschlag - Konkrete nächste Schritte mit Zeitplan und Verantwortlichkeiten
Enthält: 3-Szenarien-Vergleich
Nichtstun vs. Neueinstellung vs. Automatisierung - mit Ihrem Gehaltsniveau, Ihrer Fehlerquote und Ihrem Wachstumsplan. Die eine Slide, die Ihr CFO als erstes sehen will.
Berechnungsmethodik anzeigen
Stundensatz: Jahresgehalt (Ihre Eingabe) × 1,3 AG-Anteil ÷ 1.720 Jahresarbeitsstunden
Einsparung: Vorgänge × 12 × Automatisierungsrate × Minuten/Vorgang × Stundensatz × Economic Factor
Qualitäts-ROI: Fehlerreduktion × Vorgänge × 12 × EUR 260/Fehler (APQC Open Standards Benchmarking)
FTE: Eingesparte Stunden ÷ 1.720 Jahresarbeitsstunden
Break-Even: Benchmark-Investition ÷ monatliche Gesamteinsparung (Effizienz + Qualität)
Neueinstellung: Jahresgehalt × 1,3 + EUR 12.000 Recruiting pro FTE
Alle Daten bleiben in Ihrem Browser. Nichts wird an Server übertragen.
Candidate-Screening Agent
Erstbewertung für Ihr Führungsteam
In 2 Minuten eine fundierte Erstbewertung - mit Ihren Zahlen, Ihrem Risikoprofil und Branchenbenchmarks. Kein Anbieter-Logo, kein Vendor-Pitch.
Alle Daten bleiben in Ihrem Browser. Nichts wird übertragen.
Weiterführende Seiten
Agent-Blueprint verfügbar
Für Candidate-Screening Agent existiert ein vollständiger Blueprint mit Micro-Decision-Zerlegung, Branchenvarianten und Implementierungsdetails.
Blueprint ansehenVerwandte Agenten
Executive-Recruiting Agent
Führungskräfte-Suche orchestrieren - mit Board-Genehmigung, Headhunter-Koordination und Diskretion.
Interview-Scheduling Agent
Vorstellungsgespräche koordinieren - über Teams, Zeitzonen und Kalender hinweg.
Stellenanzeigen-Agent
Stellenanzeigen erstellen, AGG-konform prüfen, zielgerichtet veröffentlichen.
Häufige Fragen
Trifft der Agent Einstellungsentscheidungen?
Nein. Der Agent erstellt eine strukturierte, begründete Shortlist. Die Entscheidung, welche Kandidaten zum Interview eingeladen werden und wer eingestellt wird, liegt beim Recruiting-Team und der Fachabteilung. Jede automatische Bewertung ist nachvollziehbar dokumentiert.
Wie wird Diskriminierung verhindert?
Drei Mechanismen: Erstens prüft der Bias-Check statistische Muster im Scoring nach Alter, Geschlecht und Herkunft. Zweitens basiert die Erstprüfung auf K.O.-Kriterien, die vorab definiert und mit dem Betriebsrat abgestimmt sind. Drittens wird jede Bewertung mit Begründung dokumentiert - Abweichungen werden erkannt und eskaliert.
Warum ist dieser Agent Hochrisiko nach EU AI Act?
Annex III(4)(a) klassifiziert Systeme als Hochrisiko, die zur Analyse und Filterung von Bewerbungen eingesetzt werden. Die Hochrisiko-Klassifikation erfordert umfassende Governance - Risikomanagementsystem, Datenqualität, Transparenz, menschliche Aufsicht. Der Decision Layer stellt diese Anforderungen strukturell sicher.
Was passiert als Nächstes?
30 Minuten
Erstgespräch
Wir analysieren Ihren Prozess und identifizieren den optimalen Startpunkt.
1 Woche
Discover
Mapping Ihrer Entscheidungslogik. Regelwerke dokumentiert, Decision Layer designt.
3-4 Wochen
Build
Produktiver Agent in Ihrer Infrastruktur. Governance, Audit Trail, prüfungsfähig ab Tag 1.
12-18 Monate
Eigenständig
Voller Zugang zu Quellcode, Prompts und Regelversionen. Kein Vendor Lock-in.
Diesen Agent implementieren?
Wir bewerten Ihre Prozesslandschaft und zeigen, wie dieser Agent in Ihre Infrastruktur passt.