Künstliche Intelligenz (KI) verändert den Alltag in datenverarbeitenden Unternehmen immer schneller und umfangreicher. Gerade Routineprozesse können zunehmend durch Large Language Models (LLM) unterstützt werden. Machine Learning und Big Data ermöglichen vor dem Hintergrund größerer Rechenkapazitäten immer tiefere Datenverarbeitungsprozesse und steigern dadurch sowohl die Effizienz von KI-Systemen als auch die Bereitschaft von Unternehmen, diese einzusetzen. Zugleich steigen jedoch auch die Risiken für die Cybersicherheit. Zum einen liegt das daran, dass sich der Werkzeugkasten der Täter ebenfalls stetig verbessert. Dies äußert sich etwa in den massiv vereinfachten Möglichkeiten, Deepfakes zu erzeugen. Zum anderen steigt mit mehr Digitalisierung im Unternehmen auch die Angriffsfläche sowohl hinsichtlich der eingesetzten Systeme als auch mit Blick auf menschliches Versagen beim Einsatz von Technik.
Um diesen Risiken zu begegnen, besteht inzwischen ein dichtes Netzwerk aus europäischen Regelwerken, welche bestimmte Sicherheitsvorkehrungen für Unternehmen sowie Produkte und Dienstleistungen verlangen. Dazu gehören etwa der neue Cyber Resilience Act, die neue Produkthaftungsrichtlinie sowie teilweise auch die Reform zum digitalen Kaufrecht. Auf Unternehmensebene gibt es mit der NIS2-Richtlinie (Network and Information Security Directive 2, EU 2022/2555) noch Umsetzungsbedarf in Deutschland, für Finanzunternehmen gilt zur Steigerung der digitalen Resilienz bereits die sog. DORA-Verordnung (Digital Operational Resilience Act, EU 2022/2554). Das in der Öffentlichkeit bekannteste europäische Regelwerk im Digitalrecht dürfte die 2018 in Kraft getretene Datenschutz-Grundverordnung (DSGVO) sein. Im vergangenen Jahr ist nun speziell zur Regulierung von KI auch die neue KI-Verordnung (KI-VO) in Kraft getreten.
Handhabung in der Praxis: KI-VO …
Dabei stellen sich viele Unternehmen die Frage, wie sie die unterschiedlichen Regulierungssysteme unter einen Hut bringen. Dies gilt auch für das Verhältnis von KI-VO und DSGVO. Die beiden Verordnungen verfolgen zunächst einmal unterschiedliche Zwecke, überschneiden sich jedoch, wenn es um KI geht, die personenbezogene Daten verarbeitet. Gerade in Überschneidungsbereichen beider Regelwerke ist es aufgrund der unterschiedlichen Zielrichtungen nicht immer leicht für Unternehmen, die rechtlichen Anforderungen umzusetzen.
Die KI-VO regelt bestimmte Pflichten von Anbietern und Betreibern, je nachdem, welche Risiken das jeweilige KI-System mit sich bringt. Zum Beispiel müssen alle Unternehmen, die irgendeine KI einsetzen, eine ausreichende Kompetenz ihrer Mitarbeiter und Auftragnehmer beim Umgang mit dem KI-System sicherstellen. Diese Pflicht kann unter anderem durch Schulungen, interne KI-Richtlinien oder die Bestellung von KI-Beauftragten erfolgen. Auch die Schaffung eigener Vorstandsressorts für die Begleitung dieser neuen Technologie im Unternehmen ist eine mögliche Maßnahme, die auch bereits praktiziert wird (siehe zum Beispiel hier).
Der Einsatz einiger KI-Systeme ist jedoch verboten. Dies betrifft etwa Systeme, die täuschende oder manipulative Techniken einsetzen, um das Verhalten natürlicher Personen zu beeinflussen. Auch Systeme, welche die besondere Schutzbedürftigkeit von Personen ausnutzen, zum Beispiel wegen des Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation, sind verboten.
Dann gibt es sogenannte Hochrisiko-KI. Das sind zum einen Systeme, die als Sicherheitsbauteil in bestimmten Produkten wie zum Beispiel Fahrzeuge, Spielzeuge, Aufzüge oder Medizinprodukte verbaut werden. Zum anderen werden aber auch KI-Systeme, die zu bestimmten Zwecken eingesetzt werden, als hoch risikobehaftet eingestuft. Das betrifft etwa Systeme von bestimmten kritischen Infrastrukturen wie zum Beispiel der Energieversorgung oder auch Systeme, die bei der Auswahl von Arbeitnehmerinnen und Arbeitnehmern verwendet oder von Kranken- und Lebensversicherungen für die Risikobewertung und Preisbildung in Bezug auf natürliche Personen eingesetzt werden. In diesen Fällen müssen Anbieter und Betreiber der Systeme besonders strenge Anforderungen erfüllen, um die Systeme sicher, qualitativ hochwertig und risikominimierend zu gestalten.
Und schließlich verlangt die KI-VO noch von Anbietern und Betreibern bestimmte Transparenzpflichten beim Einsatz von Systemen, die zur Emotionserkennung eingesetzt werden, bei Systemen, die Audios, Bilder, Videos und Texte erzeugen, sowie bei Systemen, die mit Kunden oder anderen natürlichen Personen kommunizieren (zum Beispiel Chatbots). In solchen Fällen muss die betroffene Person darüber informiert werden, dass es sich um KI handelt. Eine gute Orientierung, in welchen Anwendungsbereich der KI-VO das eigene Unternehmen beim Einsatz bestimmter KI-Systeme fällt, bietet der sogenannte AI Act Compliance Checker (siehe hier).
Es geht also bei der KI-VO viel um Sicherheit und Fairness, insbesondere gegenüber Verbrauchern, wobei – entsprechend der Regulierungsstrategie auf europäischer Ebene – der Mensch und dessen Grundrechte im Fokus der Regulierung stehen („menschenzentrierte KI“).
… und DSGVO
Ein ähnliches Ziel verfolgt auch die DSGVO, bloß aus anderer Perspektive. Die DSGVO ist nämlich nur anwendbar, wenn es um die Verarbeitung personenbezogener Daten geht. Verarbeitet also zum Beispiel ein KI-System, das nicht verboten ist und auch nicht in den Hochrisikobereich fällt, keine personenbezogenen Daten, hat das einsetzende Unternehmen nach der KI-VO nur die Kompetenzpflicht zu erfüllen. Weitergehende Pflichten nach der DSGVO bestehen dann nicht. Umgekehrt muss ein Hochrisikosystem, das personenbezogene Daten verarbeitet, Anforderungen aus beiden Verordnungen erfüllen. Im Hinblick auf die bereits angesprochene unterschiedliche Zielrichtung beider Regelwerke kann es dabei durchaus vorkommen, dass das System nach der einen Verordnung zulässig ist, nach der anderen jedoch nicht. Dies ist etwa dann der Fall, wenn ein Hochrisikosystem (nach der KI-VO zulässig) auf eine unzulässige Art und Weise personenbezogene Daten verarbeitet. Das bedeutet: Nur weil die Anforderungen des einen Regelwerks erfüllt sind, ist das Vorhaben nicht zwingend rechtmäßig, vielmehr müssen auch die Anforderungen des jeweils anderen Regelwerks erfüllt sein, die insoweit also komplementär sind. Die Abstimmung beider Regelwerke aufeinander ist im Hinblick auf teilweise bestehende Zielkonflikte in der Praxis mit gewissen Herausforderungen verbunden, aber durchaus gestaltbar.
Technisch-organisatorische Maßnahmen (TOM)
Um zu gewährleisten, dass die Ziele beider Verordnungen erreicht werden, verlangen diese jeweils von KI-Verwendern eine entsprechende technische Gestaltung der Systeme, sogenannte technisch-organisatorische Maßnahmen (TOM) sowie deren regelmäßige Evaluierung. Beide Verordnungen sind insoweit einem risikobasierten Ansatz verpflichtet und erfordern dementsprechend die Gewährleistung eines dem jeweiligen Risiko angemessenen Schutzniveaus. Insbesondere sollen die Vertraulichkeit, Integrität, Verfügbarkeit und Belastbarkeit sowie bei Zwischenfällen die schnelle Wiederherstellung des jeweiligen Systems sichergestellt werden. Maßnahmen können auch Sicherungs- und Störungssicherheitspläne im Rahmen eines Präventionskonzepts sein. Außerdem müssen nach beiden Regelwerken Risikoermittlungen und sogenannte Folgenabschätzungen durchgeführt werden, um die Beeinträchtigung von Grundrechten natürlicher Personen abschätzen und minimieren zu können. Und schließlich müssen nach beiden Verordnungen in bestimmten Fällen Informationen an betroffene Personen bereitgestellt werden.
Empfehlenswert: Ein integrierter Ansatz
Die Beispiele belegen, dass Unternehmen bei der Umsetzung der Vorgaben beider Verordnungen einen integrierten Ansatz nutzen sollten, der stets die Anforderungen beider Regelwerke im Blick hat. So können Unternehmen Synergieeffekte nutzen und verhindern, bei der Erfüllung der jeweiligen Anforderungen jeweils von vorn beginnen zu müssen. Das verringert bürokratischen Aufwand und Kosten und kann zudem den positiven Effekt haben, dass Verbraucher – etwa aufgrund einheitlich-integrierter Informationen – nicht überfrachtet werden. Zugleich kann versucht werden, durch Technikgestaltung bereits dem Anwendungsbereich der Verordnungen zu entgehen. So entfallen die Anforderungen der DSGVO zum Beispiel für die Trainingsphase der KI, wenn man in dieser Phase nur anonymisierte oder von vornherein keine personenbezogenen Daten verwendet. Für Hochrisikosysteme wurden in der KI-VO Ausnahmetatbestände geschaffen, nach denen Anbieter nachweisen können, dass ihr KI-System nicht hochriskant ist.
Das ist allerdings kein Freifahrtschein. Denn einerseits sind die Unternehmensleiter auch im Falle der Nichtanwendbarkeit einer oder beider Verordnungen nicht von ihren allgemeinen Compliancepflichten und Verkehrssicherungspflichten entbunden. Zudem muss schon im eigenen Unternehmensinteresse dafür gesorgt werden, dass zum Beispiel möglichst wenig Angriffsfläche für Cybervorfälle geboten wird. Dazu können etwa die Cybersicherheitskonzepte des Bundesamts für Sicherheit in der Informationstechnologie (BSI) im Rahmen der Basisabsicherung oder des IT-Grundschutzes umgesetzt werden. Konkrete Maßnahmen sind etwa strenge Passwortrichtlinien, Zwei-Faktor-Authentifizierungen und Mitarbeiterschulungen. Aber auch der Abschluss einer Cyberversicherung kann ratsam sein.
Schließlich bleibt abzuwarten, wie sich Behörden und Gerichte gerade im Hinblick auf das Neben- beziehungsweise Miteinander von KI-VO und DSGVO positionieren. Insoweit bleibt zu hoffen, dass auch diese die oben skizzierten potentiellen Synergieeffekte und die damit verbundenen Vorteile erkennen und dazu beitragen, den bürokratischen Aufwand für die Unternehmen möglichst gering zu halten.




