Decision Layer & Shadow AI: Kontrolle statt Kontrollverlust
Wie der Decision Layer Analyse von Entscheidung trennt - und warum das Shadow AI löst, Betriebsräte überzeugt und Skalierung ermöglicht.
Der Decision Layer löst zwei Probleme gleichzeitig
Shadow AI und fehlende KI-Governance blockieren die Skalierung. Das erste Problem: Beschäftigte nutzen ChatGPT, Google Gemini oder Microsoft Copilot unkontrolliert, weil die eigene IT keine gleichwertige Alternative bietet. Das zweite Problem: Selbst bereitgestellte KI-Systeme arbeiten ohne klare Trennung von Analyse und Entscheidung.
Der Decision Layer adressiert beides. Er definiert pro Mikro-Entscheidung, wer handelt: Mensch, Regelwerk oder KI. Gleichzeitig schafft er die Grundlage für ein internes KI-Portal, das ChatGPT Enterprise oder Google Gemini Advanced in Funktion und Sicherheit übertrifft.
Dieser Artikel zeigt, warum Shadow AI das Compliance-Risiko der Stunde ist. Er beschreibt die Funktionsweise des Decision Layers und erklärt, warum ohne diese Architektur weder der Betriebsrat nach Betriebsverfassungsgesetz §87 Abs. 1 Nr. 6 noch die BaFin-konforme Revision einer KI-Skalierung zustimmen.
Auf einen Blick - Shadow AI und der Decision Layer
- Shadow AI - die unkontrollierte Nutzung öffentlicher KI-Tools durch Mitarbeitende - ist die Shadow IT von 2026: Datenabfluss, [EU-Datenschutzgrundverordnung](https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32016R0679)-Risiko, null Nachvollziehbarkeit.
- KI-Verbote scheitern in der Praxis. Die Lösung ist ein gesteuertes internes KI-Portal, das öffentliche Alternativen in Funktion und Sicherheit übertrifft.
- Der Decision Layer trennt Analyse von Entscheidung: KI kann analysieren, aber wer handelt, ist pro Mikro-Entscheidung definiert (Mensch, Regelwerk oder KI).
- Ein vierstufiges Datenklassifizierungsschema steuert das Model-Routing - vertrauliche Daten erreichen nie ein öffentliches Modell.
- Ohne Governance-first-Architektur wird weder Betriebsrat noch Wirtschaftsprüfer noch Vorstand einer KI-Skalierung zustimmen.
Shadow AI kostet Unternehmen bereits heute Millionen
Shadow AI ist die Shadow IT von 2026. Beschäftigte nutzen ChatGPT, Microsoft Copilot, Google Gemini oder Perplexity für ihre tägliche Arbeit. Sie lassen E-Mails formulieren, Verträge in DeepL Write übersetzen und Quartalsberichte zusammenfassen. Nicht aus Böswilligkeit, sondern weil diese Tools produktiver machen.
Die Zahlen belegen das Ausmaß. Laut Gartner nutzen 2026 über 60 Prozent der Wissensarbeiter generative KI-Tools. Die Mehrheit davon ohne Freigabe der IT-Abteilung. Samsung Electronics musste 2023 die interne ChatGPT-Nutzung in der Halbleitersparte verbieten, nachdem Quellcode an OpenAI übermittelt wurde. Apple folgte mit einer ähnlichen Richtlinie.
Datenabfluss nach EU-Datenschutzgrundverordnung Art. 5 und Art. 32. Jede Eingabe in ein öffentliches KI-Tool verlässt das Unternehmensnetzwerk. Vertragsinhalte, Finanzdaten, Personalinformationen. Alles liegt außerhalb Ihrer Kontrolle. Bei personenbezogenen Daten kann das nach EU-Datenschutzgrundverordnung Art. 33 einen meldepflichtigen Vorfall darstellen.
Keine Nachvollziehbarkeit nach IDW PS 980. Es gibt keinen Audit Trail. Welcher Beschäftigte hat welche Daten an welches Tool übergeben? Niemand dokumentiert es. Das verletzt die Anforderungen der internen Revision nach IDW PS 980 (Compliance-Management-Systeme).
Keine Qualitätskontrolle nach ISO 9001. KI-Ergebnisse fließen in Geschäftsentscheidungen ein. Ein Vertragsentwurf, der teilweise von einer KI stammt - ohne Qualitätskontrolle nach ISO 9001 und ohne Kennzeichnung.
Die Lösung ist nicht Verbot. Samsung und Apple zeigen: Verbote erzeugen Workarounds. Die Alternative ist ein internes KI-Portal, das funktional besser ist als ChatGPT Enterprise. Wie ein solches Portal aussieht, beschreibt der Artikel Enterprise-AI-Portal: Mehr als nur ein Chat-Interface.
Der Decision Layer trennt Analyse von Entscheidung
Der Decision Layer ist das Architekturprinzip hinter kontrollierter KI-Nutzung. Ein KI-Modell - ob GPT-4o, Claude 3.5 Sonnet oder Llama 3.1 - kann analysieren: Daten zusammenfassen, Muster erkennen, Empfehlungen aussprechen. Die Entscheidung, ob und wie reagiert wird, ist eine separate Frage. Der Decision Layer beantwortet sie.
Jeder Geschäftsprozess wird in Mikro-Entscheidungen zerlegt. Für jede ist vorab definiert, wer entscheidet:
Eingehender Vorgang
│
┌──────────┐
│ Decision │
│ Layer │
└──────────┘
┌────┼────────────┐
▼ ▼ ▼
REGEL KI MENSCH
MENSCH: Die Architektur erzwingt menschliche Prüfung. Das gilt bei Ermessensentscheidungen, bei Diskriminierungspotenzial nach Allgemeines Gleichbehandlungsgesetz (AGG) und bei Mitbestimmungsthemen nach Betriebsverfassungsgesetz §87 Abs. 1 Nr. 6. Der Agent liefert den Kontext und eine Empfehlung. Ein Mensch entscheidet. Diese Eskalation ist technisch erzwungen, nicht organisatorisch vereinbart.
REGELWERK: Die Entscheidung folgt deterministische Logik. Der Tarifvertrag der IG Metall sagt X, also gilt X. Eine Frist nach Bürgerliches Gesetzbuch §186 läuft ab, also greift die Regel. Das Regelwerk ist versioniert: Jede Änderung erzeugt eine neue Version. Die alte bleibt nachvollziehbar.
KI AUTONOM: Der Agent trifft eigenständige Entscheidungen innerhalb definierter Leitplanken. Er interpretiert Dokumente, klassifiziert Sachverhalte und bewertet Kontext. Das Confidence Routing steuert: Hohe Konfidenz und niedriges Risiko führt zur autonomen Entscheidung. Niedrige Konfidenz oder hohes Risiko eskaliert an einen Menschen.
Vier Prinzipien machen den Decision Layer revisionssicher
Explizite, versionierte Regeln nach ISO 42001. Jede Entscheidungsregel hat eine ID, eine Version und ein Gültigkeitsdatum. ISO 42001 (AI Management System) verlangt genau diese Nachvollziehbarkeit. Wenn sich eine Betriebsvereinbarung ändert, entsteht eine neue Regelversion. Bei einer Prüfung ist klar, welche Regel zum Entscheidungszeitpunkt galt.
Architektonisch erzwungener Human-in-the-Loop. Bei definierten Entscheidungstypen kann das System nicht ohne menschliche Freigabe fortfahren. Das ist technisch durchgesetzt, konform mit EU AI Act Art. 14 (menschliche Aufsicht). Ein Agent umgeht diese Prüfung nicht, weil die Architektur es verhindert.
Audit Trail pro Mikro-Entscheidung. Jede Mikro-Entscheidung erzeugt einen unveränderlichen Protokolleintrag: Input, angewandte Regel, Konfidenzwert, Ergebnis, Zeitstempel. Das entspricht den Anforderungen des BSI C5-Katalog (Cloud Computing Compliance Criteria Catalogue) an die Protokollierung.
Betriebsvereinbarungen als Systemconstraints. Anforderungen des Betriebsrats nach Betriebsverfassungsgesetz §87 werden als technische Regeln implementiert. Das System kann die Betriebsvereinbarung nicht umgehen, weil sie Teil der Systemlogik ist. Der Betriebsrat prüft jede Entscheidung im Audit Trail.
Datenklassifizierung steuert das Model-Routing automatisch
Bevor der Decision Layer wirksam wird, muss geklärt sein: Welche Daten dürfen von welchem KI-Modell verarbeitet werden? Die Antwort liefert ein vierstufiges Schema, angelehnt an ISO 27001 Annex A.8 (Informationsklassifizierung):
| Stufe | Bezeichnung | Beispiele | Erlaubte KI-Verarbeitung |
|---|---|---|---|
| 1 | Öffentlich | Pressemitteilungen, Website-Inhalte | Alle Modelle, einschließlich OpenAI API oder Google Vertex AI |
| 2 | Intern | Präsentationen, Prozessdokumente | EU-Cloud-Modelle, z. B. Azure OpenAI Service in West Europe |
| 3 | Vertraulich | HR-Daten, Finanzdaten, Verträge | Nur self-hosted (Llama 3.1, Mixtral) oder mit PII-Anonymisierung |
| 4 | Streng vertraulich | M&A-Unterlagen, Patente | Nur On-Premises, kein Cloud-Modell |
Die Klassifizierung bestimmt automatisch das Routing. Stellt ein Beschäftigter eine Frage zu einem Vertrag (Stufe 3), routet das System an ein self-hosted Modell. Ein öffentliches Modell wie GPT-4o kommt für Stufe-3-Daten nicht in Frage. Die Architektur verhindert das technisch.
Die Datenklassifizierung ist keine einmalige Aufgabe. Sie muss in bestehende Prozesse integriert werden. Jedes neue Dokument erhält eine Klassifizierung. Im Idealfall geschieht das automatisiert - basierend auf Dokumenttyp, Inhaltserkennung durch NLP-Modelle wie spaCy oder Hugging Face Transformers und organisatorischer Zuordnung.
Ohne Datenklassifizierung nach ISO 27001 fehlt die Grundlage. Sie ist die erste Entscheidung - noch vor der Modellauswahl, noch vor dem Aufbau der Infrastruktur.
Fünf Säulen tragen die KI-Governance
Die Datenklassifizierung bildet das Fundament. Darauf bauen fünf Säulen auf:
1. Zugriffskontrolle nach RBAC-Prinzip. Wer darf welche KI-Funktionen nutzen? Die Zugriffskontrolle bildet die Organisationsstruktur ab. HR sieht HR-Assistenten, Finance sieht Finance-Assistenten. SSO-Integration über Microsoft Entra ID oder Okta stellt sicher, dass keine separaten Zugänge nötig sind.
2. Audit und Logging nach BSI C5. Jede Interaktion wird protokolliert. Wer hat wann welche Frage gestellt? Welches Modell hat geantwortet? Auf Basis welcher Quellen? Der Audit Trail ist die Grundlage für Wirtschaftsprüfung nach IDW PS 980 und interne Revision. Die Governance-Referenzarchitektur beschreibt die technische Umsetzung.
3. Human Oversight nach EU AI Act Art. 14. Die Architektur definiert, wo menschliche Prüfung erforderlich ist. Routineklassifizierungen brauchen keinen menschlichen Prüfer. Personalentscheidungen mit Diskriminierungspotenzial nach Allgemeines Gleichbehandlungsgesetz (AGG) brauchen immer einen.
4. Qualitätssicherung nach NIST AI RMF. KI-Ergebnisse werden systematisch überprüft. Stichproben, Nutzerfeedback, automatisierte Evaluierung. Halluziniert das Modell? Stimmen die Quellenverweise? Das NIST AI Risk Management Framework (RMF) liefert die Methodik dafür.
5. Compliance nach EU AI Act. Der EU AI Act verlangt ab August 2026 (vorbehaltlich der im Digital Omnibus vorgeschlagenen Verschiebung auf Dezember 2027) technische Dokumentation und Risikoklassifizierung für Hochrisiko-KI-Systeme nach Art. 6. Die Governance muss diese Anforderungen von Anfang an abbilden.
Ohne Decision Layer scheitert die Skalierung
Wer KI von einem Pilot auf zehn produktive Agenten skalieren will - ob in der Personalabteilung mit SAP SuccessFactors oder im Kundenservice mit Salesforce - stößt ohne Decision Layer an eine harte Grenze. Nicht technisch - organisatorisch.
Der Betriebsrat blockiert nach Betriebsverfassungsgesetz §87. Betriebsräte haben nach Betriebsverfassungsgesetz §87 Abs. 1 Nr. 6 Mitbestimmungsrechte bei KI-Systemen, die Arbeitnehmerverhalten überwachen. Ohne nachvollziehbare Entscheidungslogik gibt kein Betriebsrat seine Zustimmung. Der Decision Layer liefert genau die Transparenz, die Betriebsverfassungsgesetz verlangt.
Die Revision verweigert die Freigabe. Wirtschaftsprüfer brauchen Nachvollziehbarkeit nach IDW PS 340. Wenn ein KI-Agent Buchungen in SAP S/4HANA erzeugt oder Personalentscheidungen in Workday vorbereitet, muss der Entscheidungspfad prüfbar sein. Der Decision Layer erzeugt automatisch die Evidence, die Big-Four-Prüfer (Deloitte, PwC, EY, KPMG) verlangen.
Der Vorstand sieht keinen ROI. Pilotprojekte laufen mit Innovationsbudgets. Skalierung braucht Investitionsbudgets mit belastbarem Business Case. Der Decision Layer liefert die Daten: Durchlaufzeiten, Fehlerquoten, Kosten pro Vorgang, Eskalationsraten. Laut McKinsey Global AI Survey erreichen nur 11 Prozent der KI-Projekte den produktiven Betrieb. Der Decision Layer erhöht diese Quote messbar.
Die Reihenfolge ist nicht verhandelbar: Erst Governance, dann Skalierung.
Privacy by Design schützt Beschäftigte und Daten
Ein Enterprise-AI-Portal schützt nicht nur Anfragedaten. Es schützt auch die Nutzung selbst. Kein Tracking, keine Analytics-Cookies, keine Verhaltensanalyse.
SSO über Microsoft Entra ID oder Okta. Beschäftigte authentifizieren sich über das bestehende Identity-Management. Keine separaten Passwörter, keine Nutzerprofile bei Drittanbietern.
Keine Tracking-Cookies nach EU-Datenschutzgrundverordnung Art. 5 Abs. 1 lit. c. Das Portal verwendet keine Cookies zur Verhaltensanalyse. Nutzungsdaten dienen ausschließlich dem Audit Trail - nicht dem Marketing und nicht dem Profiling nach Bundesdatenschutzgesetz (BDSG).
Nutzungsdaten nur für Governance-Zwecke. Der Zugriff ist auf berechtigte Rollen beschränkt: IT-Sicherheit, Datenschutzbeauftragter nach EU-Datenschutzgrundverordnung Art. 37, interne Revision. Führungskräfte sehen keine individuellen Anfragen.
Privacy by Design nach EU-Datenschutzgrundverordnung Art. 25. Die Datenschutzanforderungen sind in die Architektur eingebaut. PII-Anonymisierung, Datenklassifizierung und Model-Routing greifen automatisch. Basierend auf der Klassifizierung der Daten, nicht auf der Disziplin der Nutzenden.
Dieser Ansatz überzeugt Datenschutzbeauftragte nach BDSG §38 und Betriebsrat gleichermaßen: Das System dokumentiert Geschäftsentscheidungen, nicht Beschäftigte.
📘 Enterprise AI-Infrastruktur Blueprint 2026 - Artikel-Serie
| ← Vorheriger | Übersicht | Nächster → |
|---|---|---|
| Von Chatbots zu AI-Agenten: MCP, A2A und Multi-Agent-Systeme | Zur Übersicht | Was KI wirklich kostet: TCO-Vergleich für Unternehmen |
Alle Artikel dieser Serie: Enterprise AI-Infrastruktur Blueprint 2026
Decision Layer ist Gosigns zentrale Governance-Komponente. Modell-agnostisch, betriebsratskompatibel, mit vollständigem Audit Trail. Mehr zur Governance-Architektur.
Termin vereinbaren. 30 Minuten, in denen wir klären, wie ein Decision Layer für Ihre Prozesse aussieht und wie Shadow AI in Ihrem Unternehmen kontrolliert adressiert werden kann.

Bert Gogolin
Geschäftsführer, Gosign
AI Governance Briefing
Enterprise AI, Regulierung und Infrastruktur - einmal im Monat, direkt von mir.