Künstliche Intelligenz (KI) hat zahlreiche Bereiche unseres Lebens längst durchdrungen, auch wenn dies aus Anwendersicht nicht immer klar erkennbar ist. Sowohl im privaten als auch im geschäftlichen Umfeld nehmen die Nutzung und Bedeutung von KI-gestützten Systemen rasant zu, wobei ihre Einsatzmöglichkeiten noch längst nicht erschöpfend erforscht sind. Eines ist jedoch bereits heute deutlich sichtbar: KI in ihrer heutigen Form stellt einen Quantensprung dar, der alles bisher Dagewesene in den Schatten stellt.
Aus Sicht der Cybersicherheit bietet sich hier ein sehr komplexes Bild. Auf der einen Seite schickt sich KI an, sowohl die präventive als auch die reaktive Cybersicherheit inklusive Spezialgebieten wie eDiscovery, IT-Forensik und Cyber-Incident-Response grundlegend zu revolutionieren. Auf der anderen Seite bringt KI aber auch völlig neue Gefahren mit sich, und das auch abseits der Tatsache, dass die KI-Systeme selbst ein Angriffsziel mit teils völlig neuen Angriffsvektoren darstellen.
In den Händen von Kriminellen ist KI bereits heute ein mächtiges Angriffswerkzeug, das die Bedrohungslandschaft grundlegend verändert. Diese Veränderungen beschränken sich dabei nicht allein auf die Cybersicherheit, sondern haben Auswirkungen auf die gesamte Unternehmenssicherheit und teils sogar deutlich über diese hinaus.
In diesem Artikel werfen wir einen Blick auf die Schattenseiten der KI – und speziell auf die Angriffsstellen, die es Cyberkriminellen ermöglichen, aktuell verfügbare beziehungsweise kurzfristig zu erwartende KI-basierte Technologien zur Begehung von Straftaten zu verwenden.
KI als Angriffswerkzeug
KI-Systeme stellen Kriminellen völlig neue Werkzeuge für die Begehung von Straftaten zur Verfügung. Neuere Ansätze wie Agentic AI und Reasoning, ganz zu schweigen von Techniken, die aktuell noch nicht (fertig) entwickelt sind, werden diese die Problematik noch massiv verstärken. Die Folge ist nicht nur eine beträchtliche Vereinfachung wirksamer Cyberattacken, sondern die Entwicklung völlig neuer krimineller Strategien und Taktiken.
Die Anbieter populärer KI-Systeme versuchen, hier Gegenmaßnahmen zu ergreifen, allerdings bisher nur mit eher mäßigem Erfolg. Generative KI ist ein klassisches Dual-Use-Produkt, und es ist oftmals schwer bis unmöglich, an einem Prompt die dahinterstehende Motivation abzulesen. Dazu kommt, dass zahlreiche KI-Komponenten von Trainingsdatenbeständen über Software bis hin zu fertigen Modellen als Open Source verfügbar und den Angreifern damit frei zugänglich sind. Eventuell implementierte Schutzmechanismen gegen Missbrauch können hier in der Regel leicht entfernt werden.
Social Engineering
Generative KI (GenAI) ist in der Lage, in zahlreichen Sprachen äußerst authentische und überzeugend formulierte Texte für unterschiedlichste Szenarien zu erstellen. Dabei kann der Kontext exakt vorgegeben werden, beispielsweise bezüglich Zielgruppe, Branche oder gewünschtem Effekt. Auch der imaginäre Autor kann in jedem Detail definiert werden, bis hin zu Qualifikation, Erfahrung, Alter und Charakter.
Gefälschte Texte lassen sich daher problemlos und mit hoher Qualität auf spezifische Berufsgruppen, Branchen oder Unternehmenstypen zuschneiden. Ein Fertigungsingenieur spricht anders als ein Fondsmanager, und in einem Logistikunternehmen werden andere Metaphern verwendet als in einem medizinischen Labor. Hochwertige GenAI-Systeme können diese und andere Faktoren oft auf sehr überzeugende Weise simulieren. Passendes gefälschtes Bild- und Videomaterial kann generative KI direkt mitliefern.
Hier ein paar Beispiele:
- Phishing-Mails
- gefälschte Profile in Jobportalen, Karriere- und sozialen Netzwerken
- gefälschte Geschäftskorrespondenz
- gefälschte Webpräsenzen und Firmenprofile
- gefälschte Produktseiten, Projektbeschreibungen, Flyer oder Produktpräsentationen
Gleichzeitig eignet sich generative KI auch zur schnellen und zielgerichteten Recherche über spezifische Berufe, Rollen, Branchen und teilweise sogar Unternehmen. Moderne Chatbots können ihre Nutzer sogar gezielt darin coachen, eine bestimmte Rolle einzunehmen.
Diese Fähigkeiten machen generative KI zu einem idealen Werkzeug für nahezu alle Aspekte des Social Engineering. Grundsätzlich ist all dies auch ohne Einsatz von KI möglich. Damit das Ergebnis überzeugend wirkt, müssen die Täter dann allerdings über erhebliches Wissen und spezifische Erfahrung verfügen. Die enorme Breite und Tiefe an Trainingsdaten neuerer großer Sprachmodelle macht dies in vielen Fällen weitgehend überflüssig.
Deep Fake – Fälschung von Bild-, Audio-und Videoinhalten
Ein weiteres Beispiel für den Einsatz generativer KI durch Kriminelle sind Deep Fakes. Die Möglichkeiten zur Generierung und Manipulation von Bildern, Video und Audiodaten sind bereits jetzt sehr beeindruckend, und diese Disziplin der KI entwickelt sich in rasantem Tempo weiter.
Momentan gibt es nur wenige bekannte Fälle, bei denen Deep Fakes eine kritische Rolle bei Cyberangriffen beziehungsweise Betrugsversuchen im Unternehmensbereich gespielt haben. Ein sogenannter Fake-President-Angriff mit Hilfe gefälschter Stimmen ist bereits erfolgt, solche Taten stellen aber aktuell noch die Ausnahme dar.
Angesichts der erheblichen Summen, die gerade im Bereich Waren- und Finanzbetrug auf dem Spiel stehen, verbunden mit stetig wachsenden Möglichkeiten der Automatisierung von Angriffen, steht zu erwarten, dass sowohl die Qualität als auch die Quantität entsprechender Betrugsversuche massiv zunehmen werden. Das lässt sich bereits heute im Bereich der Endverbraucher feststellen, wo KI aktuell bereits in großem Stil eingesetzt wird, beispielsweise im Kapitalanlagebetrug, bei Erpressungen oder bei der Diskreditierung von Personen und Organisationen.
KI in der Schwachstellenanalyse
Andererseits gibt es auch eine Reihe von Fällen, in denen KI erfolgreich zum Auffinden von Schwachstellen genutzt worden ist. Dabei gibt es unterschiedliche Ansätze, die jedoch noch nicht alle vollumfänglich verfügbar sind:
- Auffinden von Schwachstellen in Software durch Analyse des Quellcodes oder des Binärcodes
- Analyse der Schnittstellen und Abhängigkeiten einer Software, um potentiell verwundbare Komponenten zu identifizieren (Lieferkettenangriff)
- Analyse von Quellcode-Repositories auf vertrauliche Informationen wie Zugangsdaten oder API-Schlüssel
- Analyse von Binärcode auf fest codierten Zugangsdaten
- Analyse von Webseiten auf Sicherheitslücken und versehentliche Preisgabe vertraulicher Informationen
- Analyse von grafischen Benutzeroberflächen auf mögliche Schwachstellen
KI in der Programmierung von Schadcode
Die Anwendungsentwicklung mittels KI ist längst Realität, auch wenn die diesbezüglichen Möglichkeiten aktueller KI-Systeme medial teils stark übertrieben dargestellt werden. Gerade bei der Entwicklung kleinerer Anwendungen oder spezifischer Funktionen ist KI aber bereits heute ein sehr mächtiges Werkzeug. Entwicklungsprozesse lassen sich hier oft von Stunden oder Tagen auf Minuten verkürzen. Leider lässt sich dies nicht nur für die Entwicklung nützlicher Anwendungen nutzen, sondern auch für die Entwicklung von Schadcode.
Eine Besonderheit KI-gestützter Anwendungsentwicklung ist, dass der menschliche Programmierer keine tiefergehenden Kenntnisse der eingesetzten Technologien mehr benötigt, seien es Programmiersprachen, Algorithmen oder Schnittstellen (APIs) zu spezifischen Zielsystemen.
Fazit
Auch in den Händen von Cyberkriminellen ist KI ein mächtiges und aktuell noch nicht komplett verstandenes Werkzeug. In diesem Artikel haben wir lediglich eine kleine Auswahl heute bereits verfügbarer beziehungsweise kurzfristig zu erwartender Möglichkeiten zusammengefasst. Bereits jetzt ist sehr viel mehr denkbar, und aktuelle Entwicklungen wie Agentic AI, Reasoning und hocheffiziente, lokal ausführbare KI-Modelle erweitern die Anwendungsmöglichkeiten zusehends, was natürlich auch für kriminelle Aktivitäten gilt.
Dieser technische Fortschritt ermöglicht und bedingt weitreichende Veränderungen in Sachen Strategie und Taktik krimineller Organisationen und Einzeltäter. Um diesen neuen Herausforderungen effektiv und effizient zu begegnen, müssen Unternehmen ihre eigenen Strategien und Taktiken grundlegend verändern:
- Adaptionsfähigkeit: Moderne Sicherheitsstrategien müssen darauf ausgelegt sein, sich nicht nur ständig an Veränderungen anzupassen, sondern diesen aktiv vorzugreifen. Die Idee, sich mittels statistischer Extrapolation auf zukünftige Bedrohungen vorzubereiten, war schon früher eher problembehaftet. In der momentanen Bedrohungslage werden solche Ansätze zunehmend gefährlich.
- Neubetrachtung der Sicherheitstools: Klassische Werkzeuge der Cybersicherheit sollten regelmäßig auf ihre aktuelle und zukünftige Wirksamkeit untersucht werden. Die Einfachheit, mit der Kriminelle heute nahezu perfekt designte und formulierte Phishing-Mails generieren können, muss nicht nur aktiv in Awareness-Kampagnen berücksichtigt werden, sondern führt insgesamt zu Veränderungen bei der Logik der Phishing-Abwehr.
- Integration in Unternehmensprozesse: Die Erkennung gefälschter Inhalte und der dahinterstehenden Betrugsversuche wird für Mensch wie auch Maschine immer schwieriger. Es wird damit zunehmend wichtiger, Geschäftsprozesse in Bezug auf solche Betrugsversuche auch abseits der eigentlichen Cybersicherheit resilient zu gestalten und Schutzmaßnahmen direkt in diesen Prozessen zu verankern.
Unternehmen können sich angesichts einer komplexen Sicherheitslage und einer sich stetig beschleunigenden technischen Entwicklung nicht länger auf altbewährte Strategien, Werkzeuge und Konzepte verlassen. Umgekehrt werden Unternehmen, die aktiv auf die neue Lage reagieren und ihre Sicherheitsstrategie und die dazugehörigen Taktiken und Technologien laufend an aktuelle und zukünftige Entwicklungen anpassen, einen erheblichen Wettbewerbsvorteil gewinnen können.




