Nach dem sogenannten Gartner Hype Cycle – quasi ein Barometer für den mit neuen Technologien verbundenen Erwartungshorizont – erreichte künstliche Intelligenz (KI) im Jahr 2025 fast schon den so bezeichneten „Gipfel der überzogenen Erwartungen“. Logische Folge nach diesem Gipfel ist für das Forschungsunternehmen Gartner im nächsten Entwicklungsschritt der sogenannte „Tiefpunkt der Desillusionierung“, bevor sich die Erwartungen an eine neue Technologie über den „Hang zur Erkenntnis“ zum „Plateau der Produktivität“ stabilisieren. Kurz gesagt stehen wir also nach Gartner als Gesellschaft und Wirtschaft kurz davor, zu realisieren, dass unsere Erwartungen an KI völlig überzogen sind, bevor dann die eigentlichen Mehrwerte sichtbar und nutzbar werden.
Bei neuen Technologien geht es jedoch nicht nur um Mehrwerte, sondern auch um die damit verbundenen Risiken – die freilich ihren Teil zu der von Gartner vorhergesagten Ernüchterung beitragen können. Das Forschungsunternehmen sagt für das Jahr 2026 weltweit über 2.000 Schadensersatzansprüche wegen durch KI verursachter Todesfälle voraus (siehe hier). Dies erscheint tatsächlich nicht ganz fernliegend, jedenfalls wenn man mittelbar verursachte Todesfälle in die Rechnung einbezieht und von einer rasant steigenden KI-Nutzung weltweit ausgeht. So sind bereits in den vergangenen Jahren Suizide und Unfälle bekannt geworden, die durch Chatbots unterstützt beziehungsweise begünstigt worden sind. Zudem werden sich auch weiter Unfälle mit Robotern und autonomen Fahrzeugen ereignen, die beispielsweise in China zum Teil schon zum Alltag gehören. Hinzu kommt die mit dem enormen Energiebedarf steigende Umwelt- und Luftverschmutzung, die nach den kalifornischen Universitäten Riverside und Caltech ebenfalls für eine steigende Todesrate sorgen soll (siehe hier).
Abseits von diesen drastischen Folgen des KI-Einsatzes existieren jedoch auch Risiken, die ausschließlich wirtschaftlicher Natur sind und – jedenfalls statistisch gesehen – erheblich größere Auswirkungen auf Wirtschaft und Gesellschaft haben könnten. Diese Risiken und deren potentielle Auswirkungen auf die Versicherungswirtschaft sollen im Folgenden kurz beleuchtet werden.
Legalitätsrisiko
Die Diskussion, wie regulatorisch mit KI-Risiken umzugehen ist, wird weltweit geführt. Die Europäische Union (EU) hat in einem vielbeachteten und vielkritisierten Schritt vorgelegt und mit dem sogenannten AI Act die bisher weltweit umfangreichste KI-Regulierung auf den Weg gebracht. Hinzu kommen in der EU weitere Gesetzeswerke, die KI mittelbar regulieren und einen Rechtsrahmen für ihren Einsatz vorgeben. Beispielhaft seien hier nur die DSGVO, die DORA-Verordnung, der Cyber Resilience Act, der Digital Services Act und die NIS2-Richtlinie genannt. Während zwar die Durchsetzung dieser Datenregelwerke noch nicht immer zu funktionieren scheint, sind dennoch Verstöße gegen diese Regelungen mit erheblichen Risiken verbunden. Neben Bußgeldern und weiteren aufsichtsrechtlichen Konsequenzen bestehen auch erhebliche Reputationsrisiken. Hinzu kommen zivilrechtliche Risiken, etwa durch Urheberrechtsverletzungen und insbesondere Schadensersatzansprüche aus dem Allgemeinen Gleichbehandlungsgesetz (AGG), der Datenschutz-Grundverordnung (DSGVO) oder dem allgemeinen Zivilrecht. Wird KI nicht gesetzeskonform eingesetzt, besteht also allein hierin ein KI-bedingtes Risiko, ohne dass die KI selbst fehlerbehaftet sein muss.
Compliancerisiko
Mit dem Legalitätsrisiko verbunden ist auch das Compliancerisiko von Unternehmensleitern, KI in der Organisationsstruktur richtig einzubetten. Hier besteht die Verantwortung darin, Strukturen zu schaffen, welche auf der einen Seite zur Einhaltung der gesetzlichen Voraussetzungen des KI-Einsatzes führen und auf der anderen Seite Schäden durch KI vermeiden. Dies betrifft aktuell in besonderem Maße den Einsatz der im Aufschwung befindlichen sogenannten agentischen KI (Agentic AI). Diese kann in Erweiterung von Large Language Models (LLMs) nicht nur Output wie Texte, Bilder und anderes mehr generieren, sondern auch Handlungen selbst vornehmen. Eine beispielsweise zur Vornahme von Rechtsgeschäften fähige und befähigte KI ist freilich mit größeren Risiken behaftet als eine KI, die Rechtsgeschäfte lediglich informatorisch vorbereitet. Dies ist entsprechend im Risikomanagement und bei der Verschaffung von KI-Kompetenz für die Belegschaft und eingesetzte Dienstleister zu berücksichtigen.
Manipulations- und Cyberrisiko
Während Cyberrisiken im Allianz Risikobarometer nach wie vor die Liste der größten Geschäftsrisiken anführen, klettert KI im Jahr 2026 auf Rang 2. Dies liegt zum einen an dem sprunghaften Anstieg der Verwendung von KI in der Wirtschaft und im Privatbereich. Zum anderen begünstigt die Heterogenität der KI-Technologien und ihrer möglichen Einsatzbereiche diese Risikoeinstufung. KI ist eine Schnittstellentechnologie, die nicht nur selbst neue Risiken (und Chancen) schafft, sondern auch andere Risiken (wie auch deren Eindämmungsmöglichkeiten) verstärkt. Während nämlich Cyberangriffe durch KI effizienter und unvorhersehbarer durchgeführt werden können, schafft KI zugleich auch bessere Möglichkeiten der Verteidigung. Zugleich steigen die Risiken von Manipulationen und Identitätsdiebstählen durch bessere KI-generierte Deep Fakes erheblich an.
KI-Fehlerrisiko
Hinzu kommt das klassische Fehlerrisiko von KI-Anwendungen. Diese berechnen – einfach gesagt – die Wahrscheinlichkeit der besten Ausgabeinformation und liegen damit zwar oft richtig, aber nicht immer. Der breiten Öffentlichkeit ist etwa das Phänomen bekannt, dass KI-Systeme „halluzinieren“, also Unwahrheiten erfinden. Dieses Risiko ist LLM-Anwendungen geradezu immanent, da sie, vereinfacht gesagt, so programmiert sind, dass sie immer eine konkrete Antwort auf eine Problemstellung geben. Dies hat in der Vergangenheit bereits dazu geführt, dass Rechtsanwälte fehlerhafte KI-generierte Zitate vor Gericht verwendet haben (siehe hier). Viele Fehler können durch ein richtiges Verständnis der Funktionsweise des verwendeten KI-Systems, durch gutes Prompting und Monitoring verhindert werden. Zudem kann bereits durch umfangreiches Training unter Verwendung guter Datensätze und mit sorgfältiger Programmierung der Grundstein für die Reduzierung von KI-Fehlern gelegt werden. KI-Fehler sind insoweit letztlich menschliche Fehler, die entweder bereits in der Herstellung oder spätestens in der Verwendung angelegt sind.
Auswirkungen auf die Versicherungswirtschaft
Die beschriebenen Risiken haben vielfältige Auswirkungen auf das Versicherungsgeschäft. Aus der Perspektive eines Versicherers, Vermittlers oder Versicherungsnehmers, der KI selbst einsetzt, sind diese Risiken unmittelbar relevant. Gleichzeitig betreffen diese Risiken jedoch auch den Kernbereich des Versicherungsgeschäfts, nämlich die Risikoübernahme für bestimmte Gefahren. Dabei können die oben beschriebenen Legalitäts- und Compliancerisiken etwa für Haftungsfragen in der D&O- und E&O-Versicherung relevant werden. Die aufgezeigten Manipulationsrisiken erhöhen zugleich das Risiko von Schadensfällen in der Cyberversicherung. Und schließlich führen die genannten allgemeinen Risiken von KI-Fehlern zu Fragen der Haftpflichtversicherung (D&O-, Betriebshaftpflicht, Privathaftpflicht, Kfz-Haftpflicht, Arzthaftpflichtversicherung und anderes mehr), der Sachversicherung und weiterer Sparten. Am vordringlichsten ist in diesem Zusammenhang die Frage, ob – analog zur „Silent-Cyber-Diskussion“ – bestehende Bedingungswerke KI-Risiken absichern, ohne dass dies kalkulatorisch berücksichtigt worden ist („Silent AI“).
Versicherungsunternehmen sollten daher neben der regulatorisch korrekten Einbettung von KI-Systemen in ihre Geschäftsorganisation auch einen Blick auf die Gestaltung ihrer Versicherungsbedingungen werfen. Zugleich muss jede Person (ob juristisch oder natürlich) beim Einsatz von KI darauf achten, dass sie die ihr obliegenden Pflichten erfüllt. Dies betrifft neben den oben beschriebenen rechtlichen Anforderungen zum Beispiel auch Versicherungsnehmer, die KI zur Erfüllung ihrer (vor-)vertraglichen Obliegenheiten einsetzen.
Es bleibt spannend, wie sich der Umgang mit den beschriebenen Risiken entwickeln wird!




