Mit der zunehmenden Verfügbarkeit von KI-Werkzeugen tritt der Finanzbetrug in eine neue Ära ein. Eine Ära, in der die Täuschung von der Realität kaum mehr zu unterscheiden ist.
Die breite Zugänglichkeit und vermehrte Nutzung von KI-Anwendungen durch Einzelpersonen wie auch Organisationen haben das Betrugsrisiko für Unternehmen und staatliche Institutionen erheblich erhöht. Künstliche Intelligenz erschwert die Aufdeckung herkömmlicher Betrugsmuster, selbst für erfahrene Fachkräfte, durch die Erzeugung täuschend echt wirkender gefälschter Dokumente, Verträge, Rechnungen, Ausweise, Bilder, Stimmen und Videos.1 Die Kombination solcher Fälschungen kann zur Erstellung sogenannter Deepfake-Identitäten führen, die in allen Phasen eines Betrugsschemas eingesetzt werden. Von der Gewinnung des Vertrauens des Opfers über die Auslösung der betrügerischen Transaktion bis hin zur Geldwäsche, wenn unrechtmäßig erlangte Gelder in den Finanzkreislauf eingeschleust werden.
Künstliche Intelligenz ist zu einem zentralen Werkzeug für Täter geworden. Sowohl bei externen Angriffen wie dem Business E-Mail Compromise (BEC) als auch bei internen Betrugsformen wie manipulierten Spesenabrechnungen. Beim BEC-Betrug handelt es sich um eine Form des Phishings, bei der Kriminelle mittels gefälschter E-Mails Mitarbeitende dazu bringen, Gelder zu überweisen oder vertrauliche Unternehmensinformationen preiszugeben. Die Täter geben sich als vertrauenswürdige Personen aus und veranlassen die Zahlung fingierter Rechnungen an unbekannte Konten oder nutzen gewonnene Daten für weiterführende Betrugshandlungen.
Laut dem Internet Organised Crime Threat Assessment (IOCTA) 2024 von Europol „hat die KI-gestützte Cyberkriminalität gerade erst begonnen“2 und „Phishing-Kits sind weit verbreitet, was die für Betrugsdelikte erforderliche Organisation und technische Expertise deutlich senkt“.3 Diese Risiken bestehen auch im Jahr 2025 fort. Im Serious and Organised Crime Threat Assessment (SOCTA) 2025 stellt Europol fest, dass sich organisierte Kriminalität im Wandel befindet: „KI, einschließlich großer Sprachmodelle (LLMs) und Deepfakes, eröffnet Kriminellen im Bereich des BEC-Betrugs neue Möglichkeiten und Fähigkeiten.“4
Externe Betrugsszenarien unter Einsatz von KI
Aus Sicht der von externen Personen ausgehenden Betrugsrisiken stellt die zunehmende Verbreitung verschiedener Formen des BEC ein zentrales Beispiel dar. Zu den häufigsten Ausprägungen von BEC zählen unter anderem gefälschte Rechnungsschemata – bei denen sich Angreifer als angebliche Lieferanten ausgeben, um Zahlungen zu erschleichen – sowie der sogenannte CEO-Betrug, bei dem sich Täter als Führungskräfte ausgeben, um Mitarbeitende unter Druck zu setzen, kurzfristig und ohne Genehmigung Geldtransfers vorzunehmen.
In solchen Szenarien setzen die Täter zunehmend öffentlich verfügbare KI-Tools ein, um Spear-Phishing-Angriffe zu verfeinern. Es handelt sich dabei um eine gezielte Form des Phishings, die einzelne Personen (zum Beispiel Mitarbeitende der Kreditorenbuchhaltung) mit individuell angepassten E-Mails anspricht, um authentische Unternehmensinformationen wie Rechnungen, Lieferantenlisten oder Namen von Teammitgliedern zu erlangen. Diese Daten werden anschließend verwendet, um die Glaubwürdigkeit der Betrugshandlungen zu erhöhen.
In der nächsten Phase – der sogenannten Transaktionsauslösungsphase – intensivieren die Täter den Täuschungsgrad häufig durch den Einsatz KI-gestützter Methoden wie „Vishing“ (betrügerische Telefonanrufe oder Sprachnachrichten) oder Deepfake-Videokonferenzen, in denen sie sich als vertrauenswürdige Personen ausgeben. Diese Vorgehensweisen sind besonders gefährlich, da sie eine direkte, persönliche Verbindung mit dem Opfer herstellen und die betrügerische Aufforderung wesentlich überzeugender erscheinen lassen als herkömmliche Phishing-Versuche.
Durch die zunehmende Verfügbarkeit und technische Weiterentwicklung von KI-basierten Stimmklontechnologien ist es heute möglich, eine menschliche Stimme mit nur wenigen Sekunden Audiomaterial täuschend echt nachzubilden. Parallel dazu nimmt auch der Einsatz von Deepfake-Videokonferenzen mittels sogenannter „Face Swaps“ zu. Dabei handelt es sich um eine Form synthetischer Medien, bei der bestehendes Videomaterial oder Live-Streams in Echtzeit mit dem Gesicht einer anderen Person überlagert werden.5 Diese Technik ermöglicht sogar Videokonferenzen mit mehreren Deepfake-Teilnehmenden – was die Täuschung besonders glaubwürdig erscheinen lässt.
Ein prominentes Beispiel hierfür ereignete sich im Februar 2024: Ein Finanzmitarbeiter in der Sonderverwaltungszone Hongkong wurde Opfer eines solchen Deepfake-Betrugs und überwies 25 Millionen US-Dollar, nachdem Kriminelle mittels einer gefälschten Videokonferenz den CFO sowie weitere Mitarbeitende des Unternehmens imitiert hatten.6
Interne Betrugsszenarien unter Einsatz von KI
Aus interner Risikoperspektive stellt insbesondere die Nutzung gefälschter Rechnungen durch Mitarbeitende im Rahmen manipulierter Spesenabrechnungen eine relevante Bedrohung dar. Öffentlich verfügbare KI-gestützte Bildgenerierungstools ermöglichen es heute mit geringem Aufwand, äußerst überzeugende Fälschungen zu erstellen – darunter Hotel- und Restaurantquittungen oder Fahrkarten. Solche Dokumente können zusätzlich mit realistisch wirkenden Details wie Knicken, Kaffeeflecken oder beschädigten Ecken versehen werden, um noch authentischer zu erscheinen.
Die Wahrscheinlichkeit, diese Art von Betrug zu entdecken, hängt maßgeblich von der Größe der Organisation und der Effektivität ihrer Kontrollmechanismen für Spesenabrechnungen ab – sei es durch direkte Vorgesetzte, automatisierte Prüfprozesse oder ausgelagerte Dienstleister.
Im Kontext einer Geschäftsreise kann derartige Täuschung ein breites Spektrum abdecken – von einem opportunistischen Mitarbeitenden, der eine vollständig erfundene Reise mit fiktiven Belegen abrechnet, bis hin zur gezielten Manipulation realer Belege durch Überhöhung der Beträge, um die Differenz zu behalten.
KI als Herausforderung für Geldwäscheprävention und KYC-Verfahren
Auch die Geldwäsche und die Umgehung banküblicher Know-Your-Customer-Verfahren (KYC) wurden durch den Einsatz von KI grundlegend verändert. Täter nutzen KI, um synthetische Identitäten zu erzeugen und sogenannte „Mule Accounts“– also Konten auf den Namen scheinbar legitimierter Personen oder Unternehmen – zu eröffnen, über die kriminelle Gelder weitergeleitet werden. Solche Konten sind essentiell für die ersten beiden Phasen der Geldwäsche: Placement (das Einschleusen illegaler Mittel in den legalen Finanzkreislauf) und Layering (die Verschleierung der Herkunft durch komplexe Transaktionen).
Mit dem Aufkommen KI-generierter synthetischer Identitäten und Deepfakes geraten klassische Verifizierungsverfahren – etwa Ausweis- oder Rechnungsprüfungen – zunehmend an ihre Grenzen. Die Möglichkeit, täuschend echt wirkende Ausweisdokumente und Nachweise digital zu erzeugen, erhöht das Risiko, dass Geldwäsche unerkannt bleibt und regulierte Finanzinstitute unbewusst in kriminelle Aktivitäten involviert werden.
Präventionsmechanismen
Deepfake-Detektoren werden derzeit getestet und schrittweise als Add-ons7 oder Anwendungen in gängige unternehmensinterne Kommunikationsplattformen integriert.8 Solange jedoch verlässliche, KI-gestützte Technologien zur Verhinderung und Erkennung KI-basierter Betrugsdelikte nicht vollständig ausgereift sind, bleibt ein menschenzentrierter Ansatz unerlässlich. Dieser sollte den Fokus auf Personen, Prozesse und Unternehmenskultur legen und dabei wertvolle Erkenntnisse aus Ermittlungen und aus der Cybersecurity, insbesondere im Bereich der Prävention, einfließen lassen.
Über die Einhaltung der EU-weit vorgeschriebenen Cyberrahmenwerke hinaus müssen Organisationen praktische Maßnahmen ergreifen, um sich gegen die sich wandelnden Bedrohungen zu wappnen. Dies erfordert organisatorische Flexibilität und permanente Wachsamkeit.
EU-Verordnungen wie DORA (Verordnung „Digital Operational Resilience Act“, EU 2022/2554) und NIS2 (Network and Information Security Directive 2, EU 2022/2555) betonen die Bedeutung robuster interner Kontrollsysteme zur Reduktion von Betrugsrisiken. Diese Rahmenwerke schreiben Prinzipien wie die Trennung von Aufgabenbereichen (Separation of Duties) vor, um eine nur einseitige Kontrolle von sensiblen Transaktionen zu verhindern, sowie eine mehrstufige Aufsicht, die Anomalien frühzeitig erkennen soll. KI-gestützte Tools wie automatisierte Überwachungssysteme und Auditverfahren verbessern die Erkennung von Bedrohungen. Role-Based Access Control (RBAC) und das Need-to-Know-Prinzip schränken darüber hinaus den Zugriff auf Daten ein und verhindern so internen Missbrauch sowie unbeabsichtigte Offenlegung oder falsche Verwendung sensibler Informationen.
Praktische Präventionsstrategien zur Bekämpfung KI-getriebener Betrugsdelikte
- Stärkung der Identitätsprüfungsprozesse: Traditionelle Methoden wie die Kontrolle von Ausweisen oder Rechnungen sind nicht mehr ausreichend. Unternehmen sollten verstärkt biometrische Verfahren mit „Liveness Detection“ einsetzen, um sicherzustellen, dass bei Onboarding oder Authentifizierung eine reale Person und kein Deepfake vorliegt.
- Einführung mehrstufiger Verifizierungen für sensible Transaktionen: Bei Transaktionen mit hohem Risiko sollten Organisationen mehrere unabhängige Prüfungsebenen implementieren – etwa Verhaltensanalysen, mehrkanalige Bestätigungen und automatisierte Transaktionsüberwachung –, um Anomalien frühzeitig zu erkennen, ohne sich ausschließlich auf manuelle Prüfungen oder menschliches Ermessen zu verlassen.
- Modernisierung der Mitarbeiterschulungen und Sensibilisierung: Angesichts immer überzeugenderer Betrugsversuche müssen Schulungsprogramme weiterentwickelt werden. Sensibilisierungskampagnen sollten nun reale Beispiele KI-generierter Betrugsformen wie Stimmimitation, Deepfake-Videokonferenzen und ausgefeilte Phishing-E-Mails umfassen, um Mitarbeitende für subtile Manipulationsmerkmale zu schulen.
- Defensive Nutzung von KI zur Anomalieerkennung: So, wie Betrüger KI zur Täuschung nutzen, können Organisationen KI auch zur Verteidigung einsetzen. Verhaltensüberwachungssysteme lernen typische Nutzerprofile und melden Auffälligkeiten, etwa plötzliche Änderungen im Kommunikationsverhalten oder bei Anfragen, die auf Identitätsmissbrauch oder internen Betrug hindeuten können.
- Kooperation und Informationsaustausch: Keine Organisation steht diesen Bedrohungen allein gegenüber. Der Austausch von Erkenntnissen über neue Betrugsmethoden und Beinahe-Delikte mit Kollegen, Aufsichtsbehörden und Experten stärkt die kollektive Verteidigungsfähigkeit.
In einer Zeit, in der technologische Möglichkeiten rasant zunehmen, muss der Mensch im Mittelpunkt einer wirksamen Betrugsprävention und -aufklärung stehen.




