Zum Inhalt springen
W K
GoBD-konform §203 StGB-konform Q2

Betrugserkennungs-Agent

Betrugsrisiken erkennen - von Duplikat-Rechnungen über Phantom Vendors bis zu AI-generierten Fake-Rechnungen.

Erkennt Duplikat-Rechnungen, Phantom Vendors, ungewöhnliche Buchungsmuster, AI-generierte Fake-Rechnungen, Spesenbetrug und Round-Tripping.

Prozess analysieren lassen
Airbus Volkswagen Shell Renault Evonik Vattenfall Philips KPMG

Anomalien per ML erkennen, SoD und Duplikate regelbasiert, Alarm-Bewertung beim Compliance-Beauftragten

Der Agent erkennt Anomalien im Zahlungsverhalten per KI-Mustererkennung und Netzwerkanalyse, validiert SoD-Verstöße und Duplikate deterministisch gegen die Berechtigungsmatrix und übergibt jeden Alarm mit Risiko-Score zur Untersuchung an den Compliance-Beauftragten.

Ergebnis: Bis zu 5 Prozent Jahresumsatz Betrugsschaden laut ACFE-Benchmark adressierbar, Vollprüfung statt Stichprobe über 100 Prozent der Transaktionen und False-Positive-Rate unter 15 Prozent.

30% Regelwerk
50% KI-Agent
20% Mensch

Die drei Ebenen Regel, KI und menschliche Bewertung strukturieren die 10 Entscheidungsschritte klar:

Fünf Prozent Jahresumsatz durch Betrug, Stichproben finden nichts

Organisationen verlieren im Schnitt fünf Prozent ihres Jahresumsatzes durch Betrug. Das beziffert die Association of Certified Fraud Examiners in ihrem Report to the Nations 2024 auf Basis von 1.921 untersuchten Fällen mit einem Gesamtschaden von 3,1 Milliarden US-Dollar. Die meisten dieser Fälle wurden nicht durch interne Kontrollen entdeckt, sondern durch Hinweise. Regelbasierte Prüfverfahren fangen das auf, was sie kennen. Was sie nicht kennen, bleibt unsichtbar - oft über Jahre.

Klassische Prüfverfahren scheitern an der Stichproben-Logik

Stichprobenbasierte Prüfung geht von einer Grundannahme aus: Wenn ein ausreichend großer Anteil der Transaktionen korrekt ist, darf man auf die Gesamtheit schließen. Betrug hebelt diese Annahme aus. Ein Phantom Vendor, der über 18 Monate kleine Beträge knapp unter der Freigabegrenze bucht, fällt in keiner Stichprobe auf. Schwellenwert-Splitting - etwa eine Rechnung über 9.900 Euro statt 10.000 Euro, um die Genehmigungsstufe zu umgehen - sieht in der Einzelbetrachtung unauffällig aus.

Erst die Vollprüfung aller Transaktionen macht diese Muster sichtbar. Nicht durch schärfere Regeln, sondern durch statistische Anomalie-Erkennung: Welcher Lieferant hat keine einzige Bestellung aus dem Einkauf, aber regelmäßige Zahlungen aus der Buchhaltung? Welche Kostenstelle verbucht Freitagabends, wenn niemand mehr prüft? Regelbasierte Systeme stellen diese Fragen nicht, weil niemand sie als Regel formuliert hat.

AI-generierte Dokumente verschieben die Bedrohungslage

Bis 2024 waren gefälschte Rechnungen handwerklich erkennbar - falsche Schriftarten, fehlende Stempel, inkonsistente USt-IDs. Das hat sich fundamental geändert. Im September 2025 waren laut Branchenerhebungen bereits 14 Prozent aller eingereichten betrügerischen Dokumente KI-generiert - im Vorjahr lag dieser Anteil noch bei null. Chris Juneau, SVP bei SAP Concur, brachte es auf den Punkt: “Do not trust your eyes.”

Für Finance-Abteilungen bedeutet das eine neue Verteidigungslinie. AI-generierte Fakes überstehen die visuelle Prüfung und oft auch die regelbasierte Validierung. Was sie verrät, sind Metadaten-Inkonsistenzen, untypische Dokumentenstrukturen und statistische Auffälligkeiten im Kontext - etwa ein neuer Lieferant, dessen erste Rechnung exakt dem Betragsmuster eines bestehenden Lieferanten entspricht. Diese Analyse erfordert KI, die auf Dokumentenechtheit trainiert ist.

Zehn Entscheidungsschritte trennen Signal von Fehlalarm

Der Decision Layer zerlegt Betrugserkennung in eine Kette aus zehn Entscheidungen mit drei verschiedenen Entscheidertypen. Drei Schritte sind regelbasiert: Duplikat-Erkennung, Spesenbetrug nach definierten Schwellen und SoD-Verstöße gegen die Berechtigungsmatrix. Fünf Schritte nutzen KI-Analyse: Phantom Vendors, Buchungsanomalien, Dokumentenechtheit, Round-Tripping in Zahlungsnetzwerken und das aggregierte Risiko-Scoring. Zwei Schritte liegen beim Menschen: die Eskalationsentscheidung und die abschließende Bewertung, ob ein Alarm berechtigt ist.

Konkretes Szenario: Ein mittelständischer Maschinenbauer mit 40.000 Eingangsrechnungen pro Jahr. Der Agent erkennt, dass ein Lieferant für Verpackungsmaterial seit sechs Monaten Rechnungen mit gleichem Nettobetrag einreicht, aber leicht variierenden Artikelbezeichnungen. Gleichzeitig zeigt die Netzwerkanalyse, dass die Bankverbindung dieses Lieferanten mit einem Mitarbeiter der Einkaufsabteilung verknüpft ist. Einzeln wäre keines dieser Signale ein Beweis. In der Kombination ergibt sich ein Risiko-Score, der die Eskalation an den Compliance-Beauftragten auslöst.

Der Compliance-Beauftragte entscheidet - nicht der Algorithmus

Sechs von zehn Entscheidungsschritten nutzen KI-Analyse. Das macht diesen Agent zum KI-intensivsten im gesamten Katalog. Trotzdem trifft kein Algorithmus die Entscheidung, ob ein Verdacht zur Untersuchung wird. Der Decision Layer dokumentiert jeden Alarm mit auslösendem Muster, betroffenen Transaktionen, Risiko-Score und Zeitstempel. Der Compliance-Beauftragte bewertet auf dieser Basis, ob ein False Positive vorliegt oder eine Untersuchung eingeleitet wird.

Dieses Prinzip ist nicht optional. ISA 240 verpflichtet den Abschlussprüfer, Betrugsrisiken zu bewerten. Ein nachvollziehbar dokumentiertes Erkennungssystem - mit protokollierten Alarmen, Eskalationswegen und Untersuchungsergebnissen - ist ein konkretes Signal für die Wirksamkeit des internen Kontrollsystems. Wer jeden Alarm lückenlos dokumentiert, stärkt nicht nur die Abwehr, sondern auch die Prüfungsfähigkeit nach IDW PS 210 und die Anforderungen aus Paragraph 91 Absatz 2 AktG an das Risikofrüherkennungssystem.

Micro-Decision-Tabelle

Wer entscheidet bei diesem Agent?

10 Entscheidungsschritte, aufgeteilt nach Decider

30%(3/10)
Regelwerk
deterministisch
50%(5/10)
KI-Agent
modellbasiert mit Confidence
20%(2/10)
Mensch
explizit zugewiesen
Mensch
Regelwerk
KI-Agent
Jede Zeile ist eine Entscheidung. Aufklappen zeigt die Entscheidungsakte und ob man anfechten kann.
Duplikat-Rechnungen erkennen Gibt es Rechnungen mit gleichem Betrag und leicht variiertem Lieferant? Regelwerk

Exakte Duplikate regelbasiert, Varianten KI-unterstützt

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Phantom-Vendor-Erkennung Gibt es Lieferanten ohne echte Geschäftsbeziehung? KI-Agent

Pattern-Analyse der Bestellhistorie und Lieferantendaten

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Ungewöhnliche Buchungsmuster Gibt es auffällige Zeitpunkte oder Schwellenwert-Splitting? KI-Agent

ML-Anomalie-Erkennung: Freitagabend-Buchungen, knapp unter Freigabegrenzen

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

AI-generierte Fake-Rechnungen erkennen Ist dieses Dokument echt oder AI-generiert? KI-Agent

LLM-Analyse der Dokumentenechtheit und Metadaten

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Spesenbetrug erkennen Gibt es doppelte Einreichungen oder überhöhte Beträge? Regelwerk Mitarbeiter

Regelverstöße regelbasiert, Muster KI-unterstützt

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Anfechtbar durch: Mitarbeiter

Round-Tripping erkennen Fließt Geld im Kreis zwischen verbundenen Parteien? KI-Agent

Netzwerkanalyse der Zahlungsströme

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

SoD-Verstöße erkennen Ist dieselbe Person Besteller, Genehmiger und Zahler? Regelwerk

Berechtigungsmatrix-Abgleich

Entscheidungsakte

Regel-ID und Versionsnummer
Eingabedaten die zur Anwendung führten
Berechnungsergebnis und angewandte Formel

Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.

Risiko-Score berechnen Wie hoch ist das Betrugsrisiko pro Transaktion? KI-Agent

ML-Scoring basierend auf allen Anomalie-Signalen

Entscheidungsakte

Modell-Version und Confidence Score
Eingabedaten und Klassifikationsergebnis
Entscheidungsgrund (Erklärbarkeit)
Audit Trail mit vollständiger Nachvollziehbarkeit

Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.

Alarm an Compliance Wird der Compliance-Beauftragte alarmiert? Mensch

Untersuchungsentscheidung über den Alarm

Entscheidungsakte

Entscheider-ID und Rolle
Begründung der Entscheidung
Zeitstempel und Kontext

Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.

False-Positive-Bewertung Ist der Alarm berechtigt oder ein False Positive? Mensch

Menschliches Ermessen bei der Bewertung des Alarms

Entscheidungsakte

Entscheider-ID und Rolle
Begründung der Entscheidung
Zeitstempel und Kontext

Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.

Entscheidungsakte und Anfechtbarkeit

Jede Entscheidung, die dieser Agent trifft oder vorbereitet, wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene (Mitarbeiter, Lieferanten, Prüfer) können jede einzelne Entscheidung einsehen, nachvollziehen und anfechten.

Welche Regel in welcher Version wurde angewandt?
Welche Daten lagen der Entscheidung zugrunde?
Wer (Mensch, Regelwerk oder KI) hat entschieden - und warum?
Wie kann die betroffene Person Einspruch einlegen?
So setzt der Decision Layer das architektonisch um →

Passt dieser Agent zu Ihrem Prozess?

Wir analysieren Ihren konkreten Finance-Prozess und zeigen, wie dieser Agent in Ihre Systemlandschaft passt. 30 Minuten, keine Vorbereitung nötig.

Prozess analysieren lassen

Governance-Hinweise

GoBD-konform §203 StGB-konform

Compliance-Kernkomponente: ISA 240 (Verantwortlichkeit des Abschlussprüfers bei Fraud), IDW PS 210 (Aufdeckung von Unregelmäßigkeiten), §91 Abs. 2 AktG (Risikofrüherkennungssystem). Der Abschlussprüfer muss Betrugsrisiken bewerten. Ein wirksames Fraud-Detection-System ist ein positives Signal für die Prüfung. Der Decision Layer dokumentiert jeden Alarm: Trigger, Risiko-Score, Untersuchungsergebnis.

§203 StGB-relevante Daten werden Ende-zu-Ende verschlüsselt und nie im Klartext an KI-Modelle übergeben.

Beitrag zur Verfahrensdokumentation

Dokumentiert für jeden Alarm: auslösendes Muster, betroffene Transaktionen, Risiko-Score, Eskalationszeitpunkt, Untersuchungsergebnis (bestätigt/False Positive), ergriffene Maßnahmen. Fraud-Report als Compliance-Nachweis.

Bewertung

Agent Readiness 71-78%
Governance-Komplexität 31-38%
Economic Impact 74-81%
Leuchtturm-Wirkung 41-48%
Implementation Complexity 41-48%
Transaktionsvolumen Täglich

Voraussetzungen

  • Zugang zu allen Transaktionsdaten (Buchungen, Zahlungen, Bestellungen)
  • Historische Daten für ML-Training (mind. 24 Monate)
  • Berechtigungsmatrix für SoD-Prüfung
  • Definierter Eskalationsprozess an Compliance

Infrastruktur-Beitrag

Der Fraud-Detection-Agent nutzt die Anomalie-Erkennung des Buchungs-QA-Agents und die SoD-Prüfung des IKS-Monitoring-Agents. Die ML-basierte Betrugserkennung ist die fortschrittlichste KI-Anwendung im gesamten Katalog. Die Risiko-Scoring-Engine wird vom Lieferanten-Onboarding-Agent und Forderungsmanagement-Agent wiederverwendet.

Was diese Erstbewertung enthält: 9 Slides für Ihr Führungsteam

Personalisiert mit Ihren Zahlen. Generiert in 2 Minuten direkt im Browser. Kein Upload, kein Login.

  1. 1

    Titelfolie - Prozessname, Entscheidungspunkte, Automatisierungspotenzial

  2. 2

    Executive Summary - FTE-Freisetzung, Kosten pro Vorgang vorher/nachher, Break-Even-Datum, Kosten des Wartens

  3. 3

    Ausgangslage - Transaktionsvolumen, Fehlerkosten, Wachstumsszenario mit FTE-Vergleich

  4. 4

    Lösungsarchitektur - Mensch - Regelwerk - KI-Agent mit konkreten Entscheidungspunkten

  5. 5

    Governance - EU AI Act, GoBD/HGB, Audit Trail - mit Ampelstatus

  6. 6

    Risikoanalyse - 5 Risiken mit Eintrittswahrscheinlichkeit, Auswirkung und Gegenmaßnahme

  7. 7

    Roadmap - 3-Phasen-Plan mit konkreten Kalenderdaten und Go/No-Go

  8. 8

    Business Case - 3-Szenarien-Vergleich (Nichtstun/Neueinstellung/Automatisierung) plus 3×3-Sensitivitätsmatrix

  9. 9

    Diskussionsvorschlag - Konkrete nächste Schritte mit Zeitplan und Verantwortlichkeiten

Enthält: 3-Szenarien-Vergleich

Nichtstun vs. Neueinstellung vs. Automatisierung - mit Ihrem Gehaltsniveau, Ihrer Fehlerquote und Ihrem Wachstumsplan. Die eine Slide, die Ihr CFO als erstes sehen will.

Berechnungsmethodik anzeigen

Stundensatz: Jahresgehalt (Ihre Eingabe) × 1,3 AG-Anteil ÷ 1.720 Jahresarbeitsstunden

Einsparung: Vorgänge × 12 × Automatisierungsrate × Minuten/Vorgang × Stundensatz × Economic Factor

Qualitäts-ROI: Fehlerreduktion × Vorgänge × 12 × EUR 260/Fehler (APQC Open Standards Benchmarking)

FTE: Eingesparte Stunden ÷ 1.720 Jahresarbeitsstunden

Break-Even: Benchmark-Investition ÷ monatliche Gesamteinsparung (Effizienz + Qualität)

Neueinstellung: Jahresgehalt × 1,3 + EUR 12.000 Recruiting pro FTE

Alle Daten bleiben in Ihrem Browser. Nichts wird an Server übertragen.

Betrugserkennungs-Agent

Erstbewertung für Ihr Führungsteam

In 2 Minuten eine fundierte Erstbewertung - mit Ihren Zahlen, Ihrem Risikoprofil und Branchenbenchmarks. Kein Anbieter-Logo, kein Vendor-Pitch.

30K120K
1%15%

Alle Daten bleiben in Ihrem Browser. Nichts wird übertragen.

Häufige Fragen

Wie erkennt der Agent AI-generierte Fake-Rechnungen?

Der Agent analysiert Metadaten (Erstellungszeitpunkt, Software, Schriftarten), Dokumentenstruktur (Layout-Konsistenz, Stempelechheit) und Inhalt (plausible Artikelnummern, korrekte Umsatzsteuer). AI-generierte Dokumente zeigen typischerweise Inkonsistenzen in mindestens einem dieser Bereiche.

Wie hoch ist die False-Positive-Rate?

Typischerweise 5-15% der Alarme sind False Positives. Der Risiko-Score hilft bei der Priorisierung: hohe Scores haben eine deutlich niedrigere False-Positive-Rate. Das System lernt aus jedem bewerteten Alarm.

Werden alle Transaktionen geprüft?

Ja, kontinuierlich. Im Gegensatz zu stichprobenbasierten Prüfungen analysiert der Agent jede Transaktion in Echtzeit. Bei Millionen Transaktionen pro Jahr werden auch seltene Muster erkannt.

Was passiert als Nächstes?

1

30 Minuten

Erstgespräch

Wir analysieren Ihren Prozess und identifizieren den optimalen Startpunkt.

2

1 Woche

Discover

Mapping Ihrer Entscheidungslogik. Regelwerke dokumentiert, Decision Layer designt.

3

3-4 Wochen

Build

Produktiver Agent in Ihrer Infrastruktur. Governance, Audit Trail, prüfungsfähig ab Tag 1.

4

12-18 Monate

Eigenständig

Voller Zugang zu Quellcode, Prompts und Regelversionen. Kein Vendor Lock-in.

Diesen Agent implementieren?

Wir bewerten Ihre Finance-Prozesslandschaft und zeigen, wie dieser Agent in Ihre Infrastruktur passt.