top of page

Was verbindet eine Bengalkatze und einen „Schock-Kassenbon“? Dasselbe Beweisproblem.

  • Autorenbild: Tomasz Dyrda
    Tomasz Dyrda
  • 25. Feb.
  • 5 Min. Lesezeit

Gazeta Wyborcza hat einen Artikel über Betrugsfälle veröffentlicht, die durch den breiten Zugang zu generativer KI erleichtert werden (Vinted, Allegro czy Wolt zmagają się z wyłudzeniami przy użyciu sztucznej inteligencji). Mit den heute verfügbaren Modellen lassen sich Bilder bearbeiten und für Betrug und Täuschungen nutzen. GW beschreibt das im Kontext von Online-Käufen und Bestellungen.

Ein ähnliches Problem (Betrug unter Einsatz von KI) hat u. a. die Financial Times beschrieben – im Zusammenhang mit generierten, fiktiven Kassenbons, die von Mitarbeitenden als Grundlage für Spesenrückerstattungen eingereicht werden (Forging ahead: the challenge of AI expenses fakes).

Sind Unternehmen also tatsächlich hilflos und von vornherein chancenlos? Nicht unbedingt. KI-Modelle sind schon heute so weit entwickelt, dass sie Bilder erzeugen, die praktisch nicht mehr von echten Fotos zu unterscheiden sind. Die reine Bildanalyse reicht daher oft nicht aus, um zu entscheiden, ob wir es mit Realität oder einem künstlich erzeugten Bild zu tun haben (sogenannte „synthetische Medien“).

Genau hier kann der Einsatz von Methoden aus der digitalen Forensik (und allgemeiner: Ermittlungs- und Prüfmethoden) helfen – in Kombination mit KI sowie mit der Auswertung von Daten aus externen Quellen.

Wir können zwei unterschiedliche Szenarien betrachten: Im ersten Fall haben wir es mit einem potenziell gefälschten Foto zu tun (die von GW beschriebenen Fälle), im zweiten mit „synthetischen“ Kassenbons, die Mitarbeitende zur Abrechnung einreichen, um sich fiktive Kosten erstatten zu lassen (die von der FT beschriebenen Fälle).


Szenario 1: Gefälschtes Foto – nutzen wir Metadaten

Ein mit einem Smartphone oder einer Kamera aufgenommenes Bild enthält in der Regel Metadaten – also „Daten über Daten“. Praktisch bedeutet das: In der Bilddatei sind zusätzliche Informationen gespeichert. Das können Datum und Uhrzeit der Aufnahme sein, der Kameratyp bzw. das Gerät, manchmal auch Aufnahmeparameter, der Aufnahmeort (Geolokalisierung) und weitere Angaben.

Diese Informationen (Metadaten) lassen sich auslesen, weil es sich um ein standardisiertes Format für Bilddateien handelt. Ein Beispiel für ein (echtes) Foto mit Metadaten ist unten dargestellt.

Nicht nur Kameras und Smartphones speichern Metadaten. Auch generative KI-Modelle können Metadaten speichern, anhand derer sich prüfen lässt, wer ein Bild (eine Datei) erstellt hat und wann. Unten ist ein beispielhaftes synthetisches Foto zu sehen (sehr realistisch).


Darunter sieht man die vom GenAI-Modell gespeicherten Metadaten.



Wenn wir die Metadaten eines Bildes prüfen, das wir für bearbeitet oder KI-generiert halten, und dort Informationen wie oben sehen, können wir mit hoher Wahrscheinlichkeit (nahezu mit Sicherheit) davon ausgehen, dass es sich um ein synthetisches Bild und nicht um eine reale Fotografie handelt.

Manchmal ist das Fehlen von Informationen nicht weniger wertvoll als die Informationen selbst. Nicht alle generativen KI-Modelle speichern Metadaten. Wenn Metadatenfelder leer sind, ist das ebenfalls eine Situation, in der man zusätzliche Informationen sammeln sollte, statt sich ausschließlich auf das Bild zu verlassen.

Man sollte sich noch an eine weitere Eigenschaft (nicht unbedingt eine gute) von Metadaten erinnern: Sie können bearbeitet oder gelöscht werden. Metadaten sind eine nützliche Informationsquelle – aber kein Orakel darüber, ob etwas authentisch ist oder nicht.


Szenario 2: Synthetische Kassenbons – Metadaten sind nicht alles

In vielen Organisationen (insbesondere in Westeuropa, den USA usw.) setzen Arbeitgeber auf Vertrauen gegenüber ihren Mitarbeitenden. Prozesse zur Prüfung und Freigabe von Spesen sind dort oft weniger streng; häufiger wird davon ausgegangen, dass Mitarbeitende in gutem Glauben handeln und nicht täuschen.

Warum dieser Einstieg? Weil sich Arbeitgeber bei Spesenrückerstattungen auf das verlassen, was sie sehen – Kassenbons und Belege, die von Mitarbeitenden eingereicht werden. Dieses Vorgehen war vor der Ära generativer KI nachvollziehbar, weil die Fälschung von Dokumenten mit geringem Wert schwierig, zeitaufwendig, oft unvollkommen und letztlich kaum lohnend war. GenAI hat das geändert, indem sie Werkzeuge zur Erzeugung ultra-realistischer Bilder von nicht existierenden (synthetischen) Dokumenten verfügbar gemacht hat.

Die gleiche Frage wie zuvor: Sind Arbeitgeber damit auf verlorenem Posten? Nicht ganz. Keine Methode bietet 100% Sicherheit, aber die Kombination mehrerer Analysearten ermöglicht es, stark verdächtige Fälle zu identifizieren.

Bei Deka Forensics haben wir für unsere Projekte ein Tool zur Prüfung von Kassenbons, Rechnungen und Tickets entwickelt. Bei der Konzeption dieses Tools haben wir uns gefragt, welche Merkmale wir automatisiert – auch mithilfe von KI – auswerten können, um verdächtige Dokumente zu erkennen.

Wir haben uns auf die folgenden Merkmale gestützt, die jedes Dokument erfüllen sollte (teilweise mit Blick auf den polnischen Markt konzipiert):

  • (a) Es sollte Metadaten enthalten, und (b) diese sollten auf die Herkunft von einem Aufnahmegerät (Kamera/Smartphone) hinweisen.

  • Die Angaben im Dokument (insbesondere bei Kassenbons) sollten konsistent sein, und die Summe der einzelnen Positionen sollte mit dem Gesamtbetrag auf dem Dokument übereinstimmen.

  • Das im Dokument angegebene Unternehmen sollte existieren, und seine NIP (polnische Steuer-ID) sollte auf der „weißen Liste“ der Steuerpflichtigen erscheinen.

  • Das Dokument sollte eine Firmenadresse enthalten, und eine Prüfung über Google Maps sollte (a) bestätigen, dass die Adresse existiert, (b) welche Firma/Firmen dort ansässig sind und (c) ob darunter die Firma ist, die auf dem Kassenbon genannt wird.

Das Bestehen dieser Prüfungen gibt natürlich keine 100%ige Sicherheit, dass ein Dokument nicht gefälscht oder „synthetisch“ ist – aber es senkt das Risiko erheblich.

Wenn ein Dokument dagegen einen oder mehrere dieser Tests nicht besteht, ist das ein starkes Signal dafür, dass es für eine vertiefte Prüfung ausgewählt werden sollte.

Ein solcher Ansatz zur Dokumentenanalyse, bei dem wir einsetzen:

  • GenAI, um Daten aus Kassenbons, Rechnungen oder Tickets auszulesen und ihre interne Konsistenz zu prüfen:


  • Merkmale elektronischer Dateien (Bildmetadaten):

  • Zugriff auf die „weiße Liste“ der Steuerpflichtigen über das vom polnischen Finanzministerium bereitgestellte API:


  • Informationen aus Google Maps zu Standorten und Unternehmen:

ermöglicht die Automatisierung der Analyse, die Prüfung von Dokumenten und das Ausflaggen verdächtiger Abrechnungen – praktisch unabhängig von der Größenordnung und über 100% der Population, also unabhängig davon, ob 10 oder 1.000 Kassenbons und Belege zu prüfen sind.

Ist die Einführung solcher Kontrollen ein Zeichen mangelnden Vertrauens gegenüber Mitarbeitenden, wie ich eingangs geschrieben habe? Eher eine Antwort auf neue Risiken, die mit neuen Technologien entstanden sind – Risiken, die es vor wenigen Jahren in dieser Form noch nicht gab.

***

Die Artikel von GW und FT zeigen, dass die Probleme, die sich aus den Möglichkeiten von GenAI ergeben, ähnlich sind und in verschiedenen Ländern und auf verschiedenen Kontinenten auftreten. Einen Teil davon kann man lösen, indem man dieselbe GenAI nutzt, um die Unregelmäßigkeiten zu bekämpfen, zu denen GenAI beigetragen hat.

Wenn wir das mit anderen Ermittlungs- und Prüfmethoden kombinieren, die nicht unbedingt etwas mit GenAI zu tun haben, aber einen automatisierten Zugriff auf unabhängige, verlässliche Daten ermöglichen, kann man einen Ansatz und Werkzeuge entwickeln, die bei der Betrugserkennung wirksam sind.

Große Unternehmen und Plattformen können solche Lösungen intern einführen und in bestehende Prozesse integrieren. Kleinere Organisationen können externe Lösungen nutzen – ähnlich wie die, die wir in diesem Artikel beschrieben haben. Unabhängig davon, welches Modell besser zu Ihren Anforderungen passt, laden wir Sie ein, Kontakt mit Deka Forensics aufzunehmen. Wir verfügen über praktische Erfahrung bei der Umsetzung beider Modelle.

Hinweis: Die Bengalkatze hat freiwillig am Fotoshooting teilgenommen und für die Nutzung ihres Bildes eine Vergütung in Form eines „Luxus-Leckerlis“ mit Hummer erhalten.

 

 
 
 

Aktuelle Beiträge

Alle ansehen

Kommentare


© 2026 Deka Forensics. Alle Rechte vorbehalten.

Besuchen Sie uns: Facebook, LinkedIn

Datenschutzrichtlinie

  • LinkedIn
  • White Facebook Icon
bottom of page