Betrugserkennungs-Agent
Betrugsrisiken erkennen - von Duplikat-Rechnungen über Phantom Vendors bis zu AI-generierten Fake-Rechnungen.
Erkennt Duplikat-Rechnungen, Phantom Vendors, ungewöhnliche Buchungsmuster, AI-generierte Fake-Rechnungen, Spesenbetrug und Round-Tripping.
Prozess analysieren lassen
Anomalien per ML erkennen, SoD und Duplikate regelbasiert, Alarm-Bewertung beim Compliance-Beauftragten
Der Agent erkennt Anomalien im Zahlungsverhalten per KI-Mustererkennung und Netzwerkanalyse, validiert SoD-Verstöße und Duplikate deterministisch gegen die Berechtigungsmatrix und übergibt jeden Alarm mit Risiko-Score zur Untersuchung an den Compliance-Beauftragten.
Ergebnis: Bis zu 5 Prozent Jahresumsatz Betrugsschaden laut ACFE-Benchmark adressierbar, Vollprüfung statt Stichprobe über 100 Prozent der Transaktionen und False-Positive-Rate unter 15 Prozent.
Die drei Ebenen Regel, KI und menschliche Bewertung strukturieren die 10 Entscheidungsschritte klar:
Fünf Prozent Jahresumsatz durch Betrug, Stichproben finden nichts
Organisationen verlieren im Schnitt fünf Prozent ihres Jahresumsatzes durch Betrug. Das beziffert die Association of Certified Fraud Examiners in ihrem Report to the Nations 2024 auf Basis von 1.921 untersuchten Fällen mit einem Gesamtschaden von 3,1 Milliarden US-Dollar. Die meisten dieser Fälle wurden nicht durch interne Kontrollen entdeckt, sondern durch Hinweise. Regelbasierte Prüfverfahren fangen das auf, was sie kennen. Was sie nicht kennen, bleibt unsichtbar - oft über Jahre.
Klassische Prüfverfahren scheitern an der Stichproben-Logik
Stichprobenbasierte Prüfung geht von einer Grundannahme aus: Wenn ein ausreichend großer Anteil der Transaktionen korrekt ist, darf man auf die Gesamtheit schließen. Betrug hebelt diese Annahme aus. Ein Phantom Vendor, der über 18 Monate kleine Beträge knapp unter der Freigabegrenze bucht, fällt in keiner Stichprobe auf. Schwellenwert-Splitting - etwa eine Rechnung über 9.900 Euro statt 10.000 Euro, um die Genehmigungsstufe zu umgehen - sieht in der Einzelbetrachtung unauffällig aus.
Erst die Vollprüfung aller Transaktionen macht diese Muster sichtbar. Nicht durch schärfere Regeln, sondern durch statistische Anomalie-Erkennung: Welcher Lieferant hat keine einzige Bestellung aus dem Einkauf, aber regelmäßige Zahlungen aus der Buchhaltung? Welche Kostenstelle verbucht Freitagabends, wenn niemand mehr prüft? Regelbasierte Systeme stellen diese Fragen nicht, weil niemand sie als Regel formuliert hat.
AI-generierte Dokumente verschieben die Bedrohungslage
Bis 2024 waren gefälschte Rechnungen handwerklich erkennbar - falsche Schriftarten, fehlende Stempel, inkonsistente USt-IDs. Das hat sich fundamental geändert. Im September 2025 waren laut Branchenerhebungen bereits 14 Prozent aller eingereichten betrügerischen Dokumente KI-generiert - im Vorjahr lag dieser Anteil noch bei null. Chris Juneau, SVP bei SAP Concur, brachte es auf den Punkt: “Do not trust your eyes.”
Für Finance-Abteilungen bedeutet das eine neue Verteidigungslinie. AI-generierte Fakes überstehen die visuelle Prüfung und oft auch die regelbasierte Validierung. Was sie verrät, sind Metadaten-Inkonsistenzen, untypische Dokumentenstrukturen und statistische Auffälligkeiten im Kontext - etwa ein neuer Lieferant, dessen erste Rechnung exakt dem Betragsmuster eines bestehenden Lieferanten entspricht. Diese Analyse erfordert KI, die auf Dokumentenechtheit trainiert ist.
Zehn Entscheidungsschritte trennen Signal von Fehlalarm
Der Decision Layer zerlegt Betrugserkennung in eine Kette aus zehn Entscheidungen mit drei verschiedenen Entscheidertypen. Drei Schritte sind regelbasiert: Duplikat-Erkennung, Spesenbetrug nach definierten Schwellen und SoD-Verstöße gegen die Berechtigungsmatrix. Fünf Schritte nutzen KI-Analyse: Phantom Vendors, Buchungsanomalien, Dokumentenechtheit, Round-Tripping in Zahlungsnetzwerken und das aggregierte Risiko-Scoring. Zwei Schritte liegen beim Menschen: die Eskalationsentscheidung und die abschließende Bewertung, ob ein Alarm berechtigt ist.
Konkretes Szenario: Ein mittelständischer Maschinenbauer mit 40.000 Eingangsrechnungen pro Jahr. Der Agent erkennt, dass ein Lieferant für Verpackungsmaterial seit sechs Monaten Rechnungen mit gleichem Nettobetrag einreicht, aber leicht variierenden Artikelbezeichnungen. Gleichzeitig zeigt die Netzwerkanalyse, dass die Bankverbindung dieses Lieferanten mit einem Mitarbeiter der Einkaufsabteilung verknüpft ist. Einzeln wäre keines dieser Signale ein Beweis. In der Kombination ergibt sich ein Risiko-Score, der die Eskalation an den Compliance-Beauftragten auslöst.
Der Compliance-Beauftragte entscheidet - nicht der Algorithmus
Sechs von zehn Entscheidungsschritten nutzen KI-Analyse. Das macht diesen Agent zum KI-intensivsten im gesamten Katalog. Trotzdem trifft kein Algorithmus die Entscheidung, ob ein Verdacht zur Untersuchung wird. Der Decision Layer dokumentiert jeden Alarm mit auslösendem Muster, betroffenen Transaktionen, Risiko-Score und Zeitstempel. Der Compliance-Beauftragte bewertet auf dieser Basis, ob ein False Positive vorliegt oder eine Untersuchung eingeleitet wird.
Dieses Prinzip ist nicht optional. ISA 240 verpflichtet den Abschlussprüfer, Betrugsrisiken zu bewerten. Ein nachvollziehbar dokumentiertes Erkennungssystem - mit protokollierten Alarmen, Eskalationswegen und Untersuchungsergebnissen - ist ein konkretes Signal für die Wirksamkeit des internen Kontrollsystems. Wer jeden Alarm lückenlos dokumentiert, stärkt nicht nur die Abwehr, sondern auch die Prüfungsfähigkeit nach IDW PS 210 und die Anforderungen aus Paragraph 91 Absatz 2 AktG an das Risikofrüherkennungssystem.
Micro-Decision-Tabelle
Wer entscheidet bei diesem Agent?
10 Entscheidungsschritte, aufgeteilt nach Decider
Duplikat-Rechnungen erkennen Gibt es Rechnungen mit gleichem Betrag und leicht variiertem Lieferant? Regelwerk
Exakte Duplikate regelbasiert, Varianten KI-unterstützt
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Phantom-Vendor-Erkennung Gibt es Lieferanten ohne echte Geschäftsbeziehung? KI-Agent
Pattern-Analyse der Bestellhistorie und Lieferantendaten
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Ungewöhnliche Buchungsmuster Gibt es auffällige Zeitpunkte oder Schwellenwert-Splitting? KI-Agent
ML-Anomalie-Erkennung: Freitagabend-Buchungen, knapp unter Freigabegrenzen
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
AI-generierte Fake-Rechnungen erkennen Ist dieses Dokument echt oder AI-generiert? KI-Agent
LLM-Analyse der Dokumentenechtheit und Metadaten
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Spesenbetrug erkennen Gibt es doppelte Einreichungen oder überhöhte Beträge? Regelwerk Mitarbeiter
Regelverstöße regelbasiert, Muster KI-unterstützt
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Anfechtbar durch: Mitarbeiter
Round-Tripping erkennen Fließt Geld im Kreis zwischen verbundenen Parteien? KI-Agent
Netzwerkanalyse der Zahlungsströme
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
SoD-Verstöße erkennen Ist dieselbe Person Besteller, Genehmiger und Zahler? Regelwerk
Berechtigungsmatrix-Abgleich
Entscheidungsakte
Anfechtbar: Ja - Regelanwendung prüfbar. Einspruch bei fehlerhafter Datenbasis oder falscher Regelversion.
Risiko-Score berechnen Wie hoch ist das Betrugsrisiko pro Transaktion? KI-Agent
ML-Scoring basierend auf allen Anomalie-Signalen
Entscheidungsakte
Anfechtbar: Ja - vollständig dokumentiert, durch Menschen überprüfbar, Einspruch über formalen Prozess.
Alarm an Compliance Wird der Compliance-Beauftragte alarmiert? Mensch
Untersuchungsentscheidung über den Alarm
Entscheidungsakte
Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.
False-Positive-Bewertung Ist der Alarm berechtigt oder ein False Positive? Mensch
Menschliches Ermessen bei der Bewertung des Alarms
Entscheidungsakte
Anfechtbar: Ja - über Vorgesetzten, Betriebsrat oder formalen Einspruch.
Entscheidungsakte und Anfechtbarkeit
Jede Entscheidung, die dieser Agent trifft oder vorbereitet, wird in einer vollständigen Entscheidungsakte dokumentiert. Betroffene (Mitarbeiter, Lieferanten, Prüfer) können jede einzelne Entscheidung einsehen, nachvollziehen und anfechten.
Passt dieser Agent zu Ihrem Prozess?
Wir analysieren Ihren konkreten Finance-Prozess und zeigen, wie dieser Agent in Ihre Systemlandschaft passt. 30 Minuten, keine Vorbereitung nötig.
Prozess analysieren lassenGovernance-Hinweise
Compliance-Kernkomponente: ISA 240 (Verantwortlichkeit des Abschlussprüfers bei Fraud), IDW PS 210 (Aufdeckung von Unregelmäßigkeiten), §91 Abs. 2 AktG (Risikofrüherkennungssystem). Der Abschlussprüfer muss Betrugsrisiken bewerten. Ein wirksames Fraud-Detection-System ist ein positives Signal für die Prüfung. Der Decision Layer dokumentiert jeden Alarm: Trigger, Risiko-Score, Untersuchungsergebnis.
§203 StGB-relevante Daten werden Ende-zu-Ende verschlüsselt und nie im Klartext an KI-Modelle übergeben.
Beitrag zur Verfahrensdokumentation
Bewertung
Voraussetzungen
- Zugang zu allen Transaktionsdaten (Buchungen, Zahlungen, Bestellungen)
- Historische Daten für ML-Training (mind. 24 Monate)
- Berechtigungsmatrix für SoD-Prüfung
- Definierter Eskalationsprozess an Compliance
Infrastruktur-Beitrag
Der Fraud-Detection-Agent nutzt die Anomalie-Erkennung des Buchungs-QA-Agents und die SoD-Prüfung des IKS-Monitoring-Agents. Die ML-basierte Betrugserkennung ist die fortschrittlichste KI-Anwendung im gesamten Katalog. Die Risiko-Scoring-Engine wird vom Lieferanten-Onboarding-Agent und Forderungsmanagement-Agent wiederverwendet.
Was diese Erstbewertung enthält: 9 Slides für Ihr Führungsteam
Personalisiert mit Ihren Zahlen. Generiert in 2 Minuten direkt im Browser. Kein Upload, kein Login.
- 1
Titelfolie - Prozessname, Entscheidungspunkte, Automatisierungspotenzial
- 2
Executive Summary - FTE-Freisetzung, Kosten pro Vorgang vorher/nachher, Break-Even-Datum, Kosten des Wartens
- 3
Ausgangslage - Transaktionsvolumen, Fehlerkosten, Wachstumsszenario mit FTE-Vergleich
- 4
Lösungsarchitektur - Mensch - Regelwerk - KI-Agent mit konkreten Entscheidungspunkten
- 5
Governance - EU AI Act, GoBD/HGB, Audit Trail - mit Ampelstatus
- 6
Risikoanalyse - 5 Risiken mit Eintrittswahrscheinlichkeit, Auswirkung und Gegenmaßnahme
- 7
Roadmap - 3-Phasen-Plan mit konkreten Kalenderdaten und Go/No-Go
- 8
Business Case - 3-Szenarien-Vergleich (Nichtstun/Neueinstellung/Automatisierung) plus 3×3-Sensitivitätsmatrix
- 9
Diskussionsvorschlag - Konkrete nächste Schritte mit Zeitplan und Verantwortlichkeiten
Enthält: 3-Szenarien-Vergleich
Nichtstun vs. Neueinstellung vs. Automatisierung - mit Ihrem Gehaltsniveau, Ihrer Fehlerquote und Ihrem Wachstumsplan. Die eine Slide, die Ihr CFO als erstes sehen will.
Berechnungsmethodik anzeigen
Stundensatz: Jahresgehalt (Ihre Eingabe) × 1,3 AG-Anteil ÷ 1.720 Jahresarbeitsstunden
Einsparung: Vorgänge × 12 × Automatisierungsrate × Minuten/Vorgang × Stundensatz × Economic Factor
Qualitäts-ROI: Fehlerreduktion × Vorgänge × 12 × EUR 260/Fehler (APQC Open Standards Benchmarking)
FTE: Eingesparte Stunden ÷ 1.720 Jahresarbeitsstunden
Break-Even: Benchmark-Investition ÷ monatliche Gesamteinsparung (Effizienz + Qualität)
Neueinstellung: Jahresgehalt × 1,3 + EUR 12.000 Recruiting pro FTE
Alle Daten bleiben in Ihrem Browser. Nichts wird an Server übertragen.
Betrugserkennungs-Agent
Erstbewertung für Ihr Führungsteam
In 2 Minuten eine fundierte Erstbewertung - mit Ihren Zahlen, Ihrem Risikoprofil und Branchenbenchmarks. Kein Anbieter-Logo, kein Vendor-Pitch.
Alle Daten bleiben in Ihrem Browser. Nichts wird übertragen.
Weiterführende Seiten
Verwandte Agenten
Jahresabschluss-Vorbereitungs-Agent
Jahresabschluss systematisch vorbereiten - von der Abschluss-Checkliste bis zur Offenlegung.
IKS-Monitoring-Agent
Internes Kontrollsystem kontinuierlich überwachen - von Vier-Augen bis Segregation of Duties.
Verfahrensdokumentations-Agent
GoBD-Verfahrensdokumentation automatisch aktuell halten - bei jeder Prozessänderung.
Häufige Fragen
Wie erkennt der Agent AI-generierte Fake-Rechnungen?
Der Agent analysiert Metadaten (Erstellungszeitpunkt, Software, Schriftarten), Dokumentenstruktur (Layout-Konsistenz, Stempelechheit) und Inhalt (plausible Artikelnummern, korrekte Umsatzsteuer). AI-generierte Dokumente zeigen typischerweise Inkonsistenzen in mindestens einem dieser Bereiche.
Wie hoch ist die False-Positive-Rate?
Typischerweise 5-15% der Alarme sind False Positives. Der Risiko-Score hilft bei der Priorisierung: hohe Scores haben eine deutlich niedrigere False-Positive-Rate. Das System lernt aus jedem bewerteten Alarm.
Werden alle Transaktionen geprüft?
Ja, kontinuierlich. Im Gegensatz zu stichprobenbasierten Prüfungen analysiert der Agent jede Transaktion in Echtzeit. Bei Millionen Transaktionen pro Jahr werden auch seltene Muster erkannt.
Was passiert als Nächstes?
30 Minuten
Erstgespräch
Wir analysieren Ihren Prozess und identifizieren den optimalen Startpunkt.
1 Woche
Discover
Mapping Ihrer Entscheidungslogik. Regelwerke dokumentiert, Decision Layer designt.
3-4 Wochen
Build
Produktiver Agent in Ihrer Infrastruktur. Governance, Audit Trail, prüfungsfähig ab Tag 1.
12-18 Monate
Eigenständig
Voller Zugang zu Quellcode, Prompts und Regelversionen. Kein Vendor Lock-in.
Diesen Agent implementieren?
Wir bewerten Ihre Finance-Prozesslandschaft und zeigen, wie dieser Agent in Ihre Infrastruktur passt.