Zum Inhalt springen
K
EU AI Act III(4)(b): Hochrisiko Q4

People-Analytics Agent

HR-Daten analysieren, Muster erkennen, evidenzbasierte Personalentscheidungen ermöglichen.

Analysiert Fluktuation, Engagement, Diversity und Produktivität auf Muster und Trends. Hochrisiko-System nach EU AI Act.

Prozess analysieren lassen
Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

Datenquellen-Routing per Regeln, Muster-Erkennung per KI, Interpretations-Eskalation

Der Agent aggregiert HR-Daten aus Quellsystemen regelbasiert, identifiziert Fluktuations-, Engagement- und Diversity-Muster per KI-Analyse mit statistischer Signifikanzprüfung - die Interpretation und Ableitung von Personalentscheidungen liegt vollständig bei HR und Führung.

Ergebnis: Laut Deloitte Global Human Capital Trends nutzen 71 Prozent der Unternehmen People Analytics aktiv, aber nur 31 Prozent haben eine dokumentierte Governance - der Agent ist Hochrisiko nach EU AI Act und erfordert Art. 9-13-Dokumentation ab August 2026.

29% Regelwerk
42% KI-Agent
29% Mensch

Die Architektur trennt, was regelmäßig vermischt wird: Datenerkennung und arbeitsrechtliche Konsequenz:

Acht Prozent der HR-Daten sind tatsächlich nutzbar

HR besitzt die Daten, die strategische Personalentscheidungen tragen könnten. Fluktuation nach Bereich, Engagement nach Standort, Diversity nach Hierarchieebene. Doch nur 8 Prozent der Unternehmen berichten, dass ihre HR-Daten tatsächlich nutzbar sind (Deloitte, Human Capital Trends). Der Rest exportiert Tabellen, baut Wochen an Präsentationen und liefert Antworten, die zu spät kommen, an der Oberfläche bleiben und die eigentliche Frage verfehlen.

Das Problem ist nicht der Mangel an Daten. Es ist der Mangel an Architektur. Wer People Analytics betreibt, ohne Analyse von Überwachung strukturell zu trennen, bekommt weder Akzeptanz beim Betriebsrat noch Konformität mit dem EU AI Act.

Warum People Analytics in der Praxis steckenbleibt

76 Prozent aller Unternehmen betreiben irgendeine Form von People Analytics. Aber nur 9 Prozent verstehen, welche Talentdimensionen tatsächlich Leistung treiben (Deloitte, 2024). Zwischen dem, was HR an Daten besitzt, und dem, was davon in strategischen Entscheidungen ankommt, liegt eine Kluft. Drei Ursachen halten sie offen.

Fragmentierte Datenbasis. Personaldaten leben in SAP oder Personio, Engagement-Werte in einem Survey-Tool, Fluktuationsgründe in Excel-Listen der Führungskräfte. 60 Prozent der HR-Verantwortlichen nennen Datenintegration als größtes Hindernis (EY, 2024). Der verdeckte Schaden: Unternehmen verlieren jährlich bis zu 15 Millionen USD an Produktivität durch fehlerhafte HR-Daten - nicht durch falsche Analysen, sondern durch die Korrekturarbeit, die schlechte Datenqualität erzwingt.

Keine Übersetzung in Entscheidungssprache. HR berichtet Headcount, Krankenquote, Schulungstage. Die Geschäftsführung denkt in Umsatz pro Kopf, Time-to-Market, Kundenabwanderung. Solange Fluktuation nicht mit ihren wirtschaftlichen Folgekosten verknüpft ist, bleibt People Analytics ein Verwaltungsbericht. Best Buy hat den Zusammenhang beziffert: 0,1 Punkte mehr Engagement korrelierten mit 100.000 USD zusätzlichem Umsatz pro Filiale. Die meisten HR-Abteilungen können eine solche Verknüpfung nicht herstellen - nicht weil die Daten fehlen, sondern weil niemand definiert hat, welche Verknüpfungen strategisch relevant sind.

Vermischung von Analyse und Überwachung. People Analytics soll Muster in aggregierten Daten erkennen. Doch ohne klare technische Grenzen gleitet die Analyse unmerklich in die Leistungsüberwachung einzelner Beschäftigter. Der Betriebsrat blockiert. Die Belegschaft misstraut. Das Projekt stirbt nicht an der Technik, sondern am Vertrauensverlust.

Hochrisiko ab August 2026 - die regulatorische Realität

Der EU AI Act klassifiziert People-Analytics-Systeme als Hochrisiko nach Annex III, Kategorie 4(b): KI-Systeme zur Überwachung und Bewertung von Verhalten am Arbeitsplatz. Auch wenn der Agent ausschließlich aggregiert analysiert, können die Ergebnisse Personalentscheidungen beeinflussen. Das reicht für die Klassifikation.

Ab dem 2. August 2026 müssen Hochrisiko-Systeme folgende Anforderungen erfüllen:

  • Risikomanagementsystem mit dokumentierter Folgenabschätzung
  • Datenqualitätsanforderungen und technische Dokumentation
  • Transparenz gegenüber betroffenen Beschäftigten
  • Menschliche Aufsicht durch fachlich kompetente Personen
  • CE-Kennzeichnung und Registrierung in der EU-Datenbank

Parallel greift deutsches Recht. BetrVG Paragraph 87 Abs. 1 Nr. 6 erzwingt Mitbestimmung bei technischen Einrichtungen, die zur Leistungs- und Verhaltenskontrolle geeignet sind. Das Bundesarbeitsgericht hat klargestellt: Die subjektive Absicht des Arbeitgebers ist irrelevant. Entscheidend ist die objektive Eignung des Systems. Ein People-Analytics-Tool ist per Definition geeignet.

DSGVO Art. 35 verlangt eine Datenschutz-Folgenabschätzung, wenn eine Verarbeitung voraussichtlich ein hohes Risiko für die Rechte natürlicher Personen birgt. Systematische Analyse von Beschäftigtendaten erfüllt dieses Kriterium.

Wer diese drei Rechtsrahmen nicht zusammendenkt, baut ein System, das technisch funktioniert und rechtlich unhaltbar ist.

Was Architektur löst, das Technologie allein nicht kann

Die zentrale Frage ist nicht: Welches Tool analysiert die Daten? Sondern: Wer definiert die Frage, wer interpretiert das Ergebnis, wer entscheidet?

Der Decision Layer zerlegt den Analytics-Prozess in diskrete Entscheidungsschritte. Jeder Schritt hat einen definierten Verantwortlichen: Mensch, Regelwerk oder KI-Agent.

Fragestellung       Datenschutz-       Daten              Muster
definieren     -->  Prüfung       -->  aggregieren   -->  identifizieren
(Mensch)            (Regelwerk)        (Regelwerk)        (Agent)

Befunde             Handlungs-         Ergebnisse
validieren     -->  empfehlungen  -->  präsentieren
(Mensch)            (Agent)            (Agent)

Die Trennung ist kein Formalismus. Sie löst das Kernproblem, an dem People Analytics in der Praxis scheitert.

Schritt 1: Fragestellung definieren (Mensch). Analytics ohne strategische Frage produziert Berichte, die niemand angefordert hat. Der Prozess beginnt erst, wenn HR-Leitung oder Geschäftsführung eine konkrete Entscheidung vorbereiten: Brauchen wir im Vertrieb ein Retention-Programm? Entwickelt sich die Engagement-Lücke zwischen Standorten auseinander?

Schritt 2: Datenschutz-Prüfung (Regelwerk). Bevor ein einziger Datenpunkt aggregiert wird, prüft das Regelwerk die geplante Analyse gegen DSGVO, Betriebsvereinbarung und interne Richtlinien. Analysen, die keine Rechtsgrundlage haben, starten nicht.

Schritt 3: Daten aggregieren (Regelwerk). HR-Kerndaten, Engagement-Scores und Fluktuationsdaten werden zusammengeführt und anonymisiert. Gruppen unter einer definierten Mindestgröße werden zusammengefasst. Das ist keine Richtlinie, sondern eine technische Sperre: Personenbezogene Rückschlüsse sind nicht möglich, weil die Architektur sie verhindert.

Schritt 4: Muster identifizieren (Agent). Der Agent erkennt Korrelationen, Trends und Ausreißer in den aggregierten Daten. Wo steigt Fluktuation schneller als im Unternehmensschnitt? Welche Bereiche zeigen sinkende Engagement-Werte bei gleichzeitig steigender Überstundenquote? Prädiktive Modelle identifizieren gefährdete Bereiche 60 bis 90 Tage bevor Kündigungen eintreten.

Schritt 5: Befunde validieren (Mensch). Ein statistisches Muster ist keine Ursache. Korreliert sinkende Zufriedenheit im Bereich X mit der Restrukturierung vom letzten Quartal - oder mit dem Führungswechsel? Der HR-Analytics-Spezialist prüft Signifikanz, Plausibilität und Kontext. Der Agent liefert die Evidenz. Die Interpretation trifft ein Mensch mit Domänenwissen.

Schritt 6-7: Empfehlungen und Aufbereitung (Agent). Der Agent formuliert evidenzbasierte Handlungsempfehlungen mit Konfidenzangabe und bereitet sie managementtauglich auf. Nicht 40 Kennzahlen auf einem Dashboard, sondern drei bis fünf Erkenntnisse, verknüpft mit Geschäftswirkung und konkreten Handlungsoptionen.

Die Grenze zwischen Analyse und Überwachung ist eine Architekturentscheidung

Kein Vertrauensproblem lässt sich durch ein besseres Dashboard lösen. Die Akzeptanz von People Analytics hängt davon ab, ob die Grenze zwischen Mustererkennung in aggregierten Daten und Bewertung einzelner Beschäftigter nicht nur versprochen, sondern technisch erzwungen wird.

Drei Architekturprinzipien stellen das sicher:

Aggregation als technische Sperre. Mindestgruppengrößen werden nicht als Policy definiert, sondern als Systemparameter implementiert. Eine Analyse mit zu kleiner Grundgesamtheit liefert kein Ergebnis - nicht eine Warnung, sondern keine Ausgabe.

Keine Rückrechnung auf Individuen. Die Anonymisierungslogik verhindert, dass die Kombination mehrerer aggregierter Auswertungen einzelne Personen identifizierbar macht. Das ist mathematisch lösbar und technisch umsetzbar - aber nur, wenn es von Anfang an in der Architektur verankert ist.

Vollständige Entscheidungsakte. Jede Analyse wird dokumentiert: Fragestellung, Rechtsgrundlage, Aggregationsebene, Ergebnis, abgeleitete Maßnahme. Der Betriebsrat hat Einsichtsrecht. Betroffene Beschäftigte können nachvollziehen, welche Analysen durchgeführt wurden und welche Entscheidungen darauf basieren.

Dieses Framework ist gleichzeitig die Betriebsvereinbarung. Wer die Architektur sauber dokumentiert, hat das Verhandlungsergebnis mit dem Betriebsrat bereits strukturiert. Klare Grenzen erhöhen die Akzeptanz und reduzieren Governance-Risiken - das ist kein Kompromiss, sondern ein strategischer Vorteil.

Infrastruktur, die über den einzelnen Agenten hinaus wirkt

Die Analyse-Engine, die hier entsteht - Fluktuation, Engagement, Equity - wird vom Strategic-HR-Analytics-Agent für Board-Reporting und vom Merit-Cycle-Governance-Agent für Vergütungsanalysen wiederverwendet. Die Anonymisierungs- und Mindestgruppengrößen-Logik wird zum Standard für jeden Agenten, der personenbezogene Daten verarbeitet. Das Governance-Framework - welche Analysen erlaubt sind, welche nicht, unter welchen Bedingungen - bildet die Grundlage für alle Hochrisiko-Agenten im Q4-Quadranten.

Der eigentliche Wert liegt nicht in den Analyseergebnissen eines einzelnen Quartals. Er liegt in der Infrastruktur, die People Analytics von einem Governance-Risiko in ein Governance-Werkzeug verwandelt: nachvollziehbar, anfechtbar, wiederholbar. Organisationen, die diesen Reifegrad erreichen, treffen datengestützte Entscheidungen fünfmal schneller und übertreffen Wettbewerber bei Geschäftsergebnissen dreimal häufiger (Deloitte, Human Capital Trends).

Micro-Decision-Tabelle

Wer entscheidet bei diesem Agent?

7 Entscheidungsschritte, aufgeteilt nach Decider

29%(2/7)
Regelwerk
deterministisch
42%(3/7)
KI-Agent
modellbasiert mit Confidence
29%(2/7)
Mensch
explizit zugewiesen
Mensch
Regelwerk
KI-Agent
Jede Zeile ist eine Entscheidung. Aufklappen zeigt die Entscheidungsakte und ob man anfechten kann.
Analyse-Fragestellung definieren Welche HR-Frage soll beantwortet werden? Mensch

HR-Leitung definiert Fragestellung und Analyse-Scope

Entscheidungsakte

Entscheider-ID und Rolle
Begründung der Entscheidung
Zeitstempel und Kontext

Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.

Datenschutz-Prüfung Ist die geplante Analyse datenschutzkonform? Regelwerk

Prüfung gegen DSGVO und Betriebsvereinbarung

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Daten aggregieren Auf welcher Ebene werden die Daten analysiert? Regelwerk

Mindestgruppengröße und Anonymisierungsregeln

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Muster identifizieren Welche Muster zeigen sich in den Daten? KI-Agent

Statistische Analyse von Fluktuation, Engagement, Diversity

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Befunde validieren Sind die identifizierten Muster valide? Mensch

HR-Analytics-Spezialist prüft Signifikanz und Plausibilität

Entscheidungsakte

Entscheider-ID und Rolle
Begründung der Entscheidung
Zeitstempel und Kontext

Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.

Handlungsempfehlungen ableiten Welche Maßnahmen werden empfohlen? KI-Agent

Evidenzbasierte Empfehlungen mit Konfidenzangabe

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Ergebnisse präsentieren Wie werden die Ergebnisse aufbereitet? KI-Agent

Management-taugliche Aufbereitung mit Handlungsoptionen

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Entscheidungsakte und Anfechtbarkeit

Jede Entscheidung, die dieser Agent trifft oder vorbereitet, wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene Mitarbeitende können jede einzelne Entscheidung einsehen, nachvollziehen und anfechten.

Welche Regel in welcher Version wurde angewandt?
Welche Daten lagen der Entscheidung zugrunde?
Wer (Mensch, Regelwerk oder KI) hat entschieden - und warum?
Wie kann die betroffene Person Einspruch einlegen?
So setzt der Decision Layer das architektonisch um →

Passt dieser Agent zu Ihrem Prozess?

Wir analysieren Ihren konkreten HR-Prozess und zeigen, wie dieser Agent in Ihre Systemlandschaft passt. 30 Minuten, keine Vorbereitung nötig.

Prozess analysieren lassen

Governance-Hinweise

EU AI Act III(4)(b): Hochrisiko
Hochrisiko-System nach EU AI Act Annex III(4)(b) - Überwachung und Bewertung von Verhalten am Arbeitsplatz. Auch wenn der Agent nur aggregiert analysiert, können die Ergebnisse Personalentscheidungen beeinflussen. Pflichten: Risikomanagementsystem, Datenschutz-Folgenabschätzung, Transparenz gegenüber Mitarbeitenden, menschliche Aufsicht. Betriebsrat: Umfassende Mitbestimmung nach BetrVG Paragraph 87 Abs. 1 Nr. 6. Empfehlung: Analyse-Framework als Betriebsvereinbarung verhandeln - klare Grenzen erhöhen die Akzeptanz und reduzieren Governance-Risiken. Der Decision Layer zerlegt jeden Prozess in einzelne Entscheidungsschritte und definiert für jeden Schritt: Mensch, Regelwerk oder KI-Agent. Jede Entscheidung wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene Mitarbeitende können jede automatisierte Entscheidung nachvollziehen und anfechten.

Bewertung

Agent Readiness 44-51%
Governance-Komplexität 81-88%
Economic Impact 64-71%
Leuchtturm-Wirkung 76-83%
Implementation Complexity 61-68%
Transaktionsvolumen Quartalsweise

Voraussetzungen

  • HR-Kernsystem mit historischen Daten (mindestens 3 Jahre)
  • Mitarbeiterbefragungsdaten (Engagement, Zufriedenheit)
  • Betriebsvereinbarung für People Analytics
  • HR-Analytics-Kompetenz im Team
  • Datenschutz-Folgenabschätzung nach DSGVO Art. 35

Infrastruktur-Beitrag

Die Analyse-Engine (Fluktuation, Engagement, Equity) wird vom Strategic-HR-Analytics-Agent und Merit-Cycle-Governance-Agent wiederverwendet. Die Anonymisierungs- und Mindestgruppengrößen-Logik wird zum Standard für alle Agenten, die personenbezogene Daten analysieren. Das Governance-Framework (was darf analysiert werden, was nicht) bildet die Grundlage für alle Hochrisiko-Agenten in Q4. Baut Decision Logging und Audit Trail auf, die im Decision Layer für Nachvollziehbarkeit und Anfechtbarkeit jeder Entscheidung benötigt werden.

Was diese Erstbewertung enthält: 9 Slides für Ihr Führungsteam

Personalisiert mit Ihren Zahlen. Generiert in 2 Minuten direkt im Browser. Kein Upload, kein Login.

  1. 1

    Titelfolie - Prozessname, Entscheidungspunkte, Automatisierungspotenzial

  2. 2

    Executive Summary - FTE-Freisetzung, Kosten pro Vorgang vorher/nachher, Break-Even-Datum, Kosten des Wartens

  3. 3

    Ausgangslage - Transaktionsvolumen, Fehlerkosten, Wachstumsszenario mit FTE-Vergleich

  4. 4

    Lösungsarchitektur - Mensch - Regelwerk - KI-Agent mit konkreten Entscheidungspunkten

  5. 5

    Governance - EU AI Act, Betriebsrat (§87 BetrVG), Audit Trail - mit Ampelstatus

  6. 6

    Risikoanalyse - 5 Risiken mit Eintrittswahrscheinlichkeit, Auswirkung und Gegenmaßnahme

  7. 7

    Roadmap - 3-Phasen-Plan mit konkreten Kalenderdaten und Go/No-Go

  8. 8

    Business Case - 3-Szenarien-Vergleich (Nichtstun/Neueinstellung/Automatisierung) plus 3×3-Sensitivitätsmatrix

  9. 9

    Diskussionsvorschlag - Konkrete nächste Schritte mit Zeitplan und Verantwortlichkeiten

Enthält: 3-Szenarien-Vergleich

Nichtstun vs. Neueinstellung vs. Automatisierung - mit Ihrem Gehaltsniveau, Ihrer Fehlerquote und Ihrem Wachstumsplan. Die eine Slide, die Ihr CFO als erstes sehen will.

Berechnungsmethodik anzeigen

Stundensatz: Jahresgehalt (Ihre Eingabe) × 1,3 AG-Anteil ÷ 1.720 Jahresarbeitsstunden

Einsparung: Vorgänge × 12 × Automatisierungsrate × Minuten/Vorgang × Stundensatz × Economic Factor

Qualitäts-ROI: Fehlerreduktion × Vorgänge × 12 × EUR 260/Fehler (APQC Open Standards Benchmarking)

FTE: Eingesparte Stunden ÷ 1.720 Jahresarbeitsstunden

Break-Even: Benchmark-Investition ÷ monatliche Gesamteinsparung (Effizienz + Qualität)

Neueinstellung: Jahresgehalt × 1,3 + EUR 12.000 Recruiting pro FTE

Alle Daten bleiben in Ihrem Browser. Nichts wird an Server übertragen.

People-Analytics Agent

Erstbewertung für Ihr Führungsteam

In 2 Minuten eine fundierte Erstbewertung - mit Ihren Zahlen, Ihrem Risikoprofil und Branchenbenchmarks. Kein Anbieter-Logo, kein Vendor-Pitch.

30K120K
1%15%

Alle Daten bleiben in Ihrem Browser. Nichts wird übertragen.

Häufige Fragen

Werden einzelne Mitarbeitende analysiert?

Nein. Der Agent analysiert ausschließlich auf aggregierter Ebene. Personenbezogene Rückschlüsse werden durch Mindestgruppengrößen technisch verhindert. Kein individuelles Scoring oder Profiling.

Wie wird der Unterschied zwischen Analyse und Überwachung sichergestellt?

Die Betriebsvereinbarung definiert klar, welche Analysen erlaubt sind und welche nicht. Jede Analyse muss vorab eine Datenschutz-Prüfung bestehen. Ergebnisse werden nur aggregiert an berechtigte Empfänger weitergegeben. Betriebsrat hat Einsichtsrecht in die durchgeführten Analysen.

Was passiert als Nächstes?

1

30 Minuten

Erstgespräch

Wir analysieren Ihren Prozess und identifizieren den optimalen Startpunkt.

2

1 Woche

Discover

Mapping Ihrer Entscheidungslogik. Regelwerke dokumentiert, Decision Layer designt.

3

3-4 Wochen

Build

Produktiver Agent in Ihrer Infrastruktur. Governance, Audit Trail, prüfungsfähig ab Tag 1.

4

12-18 Monate

Eigenständig

Voller Zugang zu Quellcode, Prompts und Regelversionen. Kein Vendor Lock-in.

Diesen Agent implementieren?

Wir bewerten Ihre Prozesslandschaft und zeigen, wie dieser Agent in Ihre Infrastruktur passt.