Europäische KI-Regulierung auf der Zielgeraden

Artikel anhören
Artikel zusammenfassen
Teilen auf LinkedIn
Teilen per Mail
URL kopieren
Drucken

Am 14.06.2023 hat das Europäische Parlament („EU-Parlament“) seine finale Position zum „Artificial Intelligence Act“ („AI-Act“) veröffentlicht. Damit liegen nach dem initialen Entwurf der Europäischen Kommission („EU-Kommission“) und der Position des Rates der Europäischen Union („Rat“) nun alle drei Entwürfe vor, und der Weg für den Trilog ist frei. Der erste Trilogtermin fand noch am Tag der Parlamentsabstimmung statt – offenbar wollen alle Beteiligten zeitnah zu einer gemeinsamen finalen Position gelangen.

 

Was bisher geschah

Am 21.04.2021 veröffentlichte die EU-Kommission ihren initialen Entwurf des AI-Act, welcher harmonisierte Vorschriften für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen enthält und darauf abzielt, das Vertrauen der Gesellschaft in KI-Systeme zu stärken, ohne dabei die Chancen dieser Technologie zu blockieren. Zu diesem Zweck werden KI-Systeme einem risikobasierten Ansatz folgend in vier Risikokategorien eingeteilt: inakzeptabel, hoch, gering und minimal. Insbesondere Systeme mit hohem Risiko unterliegen einer umfassenden Regulierung. KI-Systeme mit inakzeptablem Risiko – etwa Systeme, die menschliches Verhalten manipulieren oder die die Vertrauenswürdigkeit von Personen anhand ihres Sozialverhaltens bewerten (sogenanntes Social Scoring) – werden verboten. KI-Systeme mit hohem Risiko bzw. Systeme, die in grundrechtssensiblen Bereichen Entscheidungen über Menschen treffen, müssen für ihren Einsatz strenge Voraussetzungen erfüllen. KI mit geringem und minimalem Risiko, wie Chatbots oder Spamfilter, soll dagegen weitgehend unreguliert bleiben, um die Wettbewerbsfähigkeit in der EU zu erhalten.

Seit dem ersten Entwurf der EU-Kommission gab es einige Entwicklungen. Am 06.12.2022 hat der Rat seinen gemeinsamen Standpunkt verabschiedet. Seine Änderungsvorschläge sehen unter anderem eine Präzisierung der Definition eines KI-Systems vor, um hinreichend klare Kriterien für die Abgrenzung von KI zu einfacheren Softwaresystemen zu erhalten. Des Weiteren wurde eine Erweiterung des Umfangs der verbotenen KI-Praktiken vorgeschlagen: Das Verbot des Einsatzes von KI für Social Scoring soll sich auch an private Akteure richten. Zudem werden KI-Systeme, bei denen keine schwerwiegenden Grundrechtsverletzungen oder anderen erheblichen Risiken zu erwarten sind, nach dem Ratsvorschlag nicht als Hochrisikosysteme eingestuft. Für kleine und mittlere Unternehmen (KMUs) wurde die Bußgeldobergrenze halbiert. Darüber hinaus hat der Rat das Konformitätsbewertungsverfahren und die Bestimmungen zur Marktüberwachung überarbeitet, um eine effizientere und leichtere Umsetzung zu ermöglichen.

 

Position des EU-Parlaments

Auch das EU-Parlament hat nun einen eigenen Vorschlag mit zahlreichen Verbesserungsvorschlägen gegenüber dem Kommissionsentwurf verabschiedet. Auf die Änderungen soll im Folgenden näher eingegangen werden.

 

Definitionsänderungen

Das EU-Parlament hat die Begriffsbestimmungen in vielerlei Hinsicht überarbeitet. Im Mittelpunkt steht dabei die Neufassung der Definition des Begriffs „System der künstlichen Intelligenz“ und damit eine Veränderung des Anwendungsbereichs des AI-Act. Ein KI-System wird nun definiert als ein maschinenbasiertes System, das so konzipiert ist, dass es mit unterschiedlichen Graden an Autonomie arbeitet und für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen generieren kann, die die physische oder virtuelle Umgebung beeinflussen. Damit haben sich die Parlamentarier weitestgehend der Definition der OECD angeschlossen. Auch wenn es sich bei dieser Definition um eine bereits etablierte Definition eines internationalen Gremiums handeln dürfte, steht sie in der Kritik: Sie sei zu weit gefasst, so dass auch technisch einfache Geräte – wie beispielsweise Smarthome-Geräte oder „normale“ Software – unter den Begriff subsumiert werden könnten.

Daneben finden sich noch weitere interessante Definitionsänderungen: So sind zur besseren Abgrenzung zwischen den Unternehmen, die KI verwenden, und denjenigen Endnutzern, die durch KI in ihren Rechten betroffen sind, die Nutzer (vorher „User“) in Anwender (jetzt „Deployer“) umbenannt worden. Des Weiteren ist der Begriff des Betroffenen („Affected Person“) eingeführt worden. Erfasst sind natürliche Personen oder Personengruppen, die einem KI-System unterliegen oder anderweitig davon betroffen sind.

 

Mehr Verbote und Änderungen bei Hochrisikosystemen

Weitere wichtige Änderungen finden sich bei verbotenen und hochriskanten KI-Systemen. Auch nach dem Parlamentsentwurf verboten bleiben Systeme für die nicht wahrnehmbare Manipulation menschlichen Verhaltens, Ausnutzung von Schwächen einer Person sowie Social Scoring. Dazu kommen allerdings eine Reihe weiterer KI-Systeme, darunter KI-Anwendungen für „Predictive Policing“ und „Risk Assessment Tools“, biometrische Kate-gorisierungssysteme, Gesichtserkennungsdatenbanken durch Social-Media-Scraping oder Überwachungskameras und Emotionserkennungssysteme in bestimmten Bereichen wie beispielsweise bei der Strafverfolgung. Auch das Verbot der biometrischen Identifizierungssysteme ist ausgeweitet worden.

Der Umfang der Systeme, welche als Hochrisikosysteme eingestuft worden sind, hat sich etwas weniger stark verändert. Eine nennenswerte Ergänzung könnte große praktische Relevanz entfalten, denn zusätzlich als hochriskant eingestuft werden Empfehlungsdienste sehr großer Onlineplattformen (sogenannte VLOPs). Ebenso KI-Systeme zur Beeinflussung von Wahlen oder Wählerverhalten sollen als hochriskant eingestuft werden. Eine weitere wichtige Neuerung bei Hochrisiko-KI-Systemen ist zudem, dass eine zweite Klassifizierungsebene eingeführt worden ist: KI-Systeme sollen nur dann als Hochrisikosysteme gelten, wenn von ihnen ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte natürlicher Personen ausgeht. In einigen Fällen kann hier auch ein signifikantes Schadensrisiko für die Umwelt zur Hochrisiko-Einstufung führen. In diesem Zusammenhang soll die Kommission – nach Konsultation des sogenannten AI Office der EU und relevanter Akteure – Richtlinien bereitstellen, die Umstände spezifizieren, unter denen ein solches erhebliches Risiko gegeben ist.

 

Umfassende Regulierung von generativer KI

Wichtige Änderungen finden sich auch bei Grundlagenmodellen und sogenannter generativer KI – jenem Bereich von KI, um den sich seit der Veröffentlichung von ChatGPT Ende November vergangenen Jahres der Kern der jüngsten öffentlichen Diskussion dreht. Im initiativen Entwurf der EU-Kommission sind diese KI-Systeme nicht gesondert geregelt worden, und auch im – vor dem Hype um ChatGPT fertiggestellten – Entwurf des Rates konnten diese noch nicht adäquat aufgegriffen werden. Die rasanten Entwicklungen rund um diese Art von KI-Anwendungen sowie die anschließenden medialen Diskussionen haben jedoch schnell deutlich gemacht, dass hier gesetzgeberischer Handlungsbedarf besteht.

Das EU-Parlament legt verschiedene Anforderungen für Anbieter von Grundlagenmodellen, also für „KI-Modelle, die auf einer breiten Datenbasis trainiert werden, auf eine allgemeine Ausgabe ausgelegt sind und an eine breite Palette unterschiedlicher Aufgaben angepasst werden können“, fest. Dazu zählen die Einrichtung eines Risikomanagementsystems, die Verwendung geeigneter Datensätze, die Gewährleistung einer angemessenen Qualität (Leistung, Vorhersagbarkeit, Sicherheit und anderes mehr) durch geeignete Maßnahmen, die Einhaltung von Energieeffizienzstandards; die Erstellung einer ange-messenen technischen Dokumentation und Gebrauchsanweisung, die Einrichtung eines Qualitätsmanagementsystems sowie die Registrierung des Grundlagenmodells.

Für Anbieter von generativer KI, also für „Grundlagenmodelle, die in KI-Systemen verwendet werden, die mit unterschiedlichen Graden an Autonomie Inhalte wie komplexe Texte, Bilder, Audios oder Videos generieren sollen“, werden noch zusätzliche Pflichten festgelegt. Sie müssen Transparenzpflichten erfüllen und angemessene Schutzmaßnahmen gegen die Erzeugung von Inhalten, die gegen EU-Recht verstoßen, nach dem Stand der Technik und ohne Beeinträchtigung von Grundrechten wie der Meinungsfreiheit gewährleisten. Darüber hinaus besteht für die Anbieter die Pflicht, eine Zusammenfassung der Verwendung von urheberrechtlich geschützten Trainingsdaten öffentlich dokumentieren.

 

Geringere Bußgelder, aber mehr Betroffenenrechte

Bemerkenswert sind auch die Anpassungen hinsichtlich der Bußgelder im Fall eines Verstoßes gegen die Vorschriften des AI-Act. Das EU-Parlament hat die Bußgelder deutlich gesenkt. Lediglich bei Verstößen gegen das Inverkehrbringen verbotener KI-Systeme ist die Höchstbuße von bis zu 30 Millionen auf 40 Millionen Euro (oder 7% des weltweiten Jahresumsatzes) festgesetzt worden – mehr als im Kommissions- und Ratsentwurf. Die Obergrenzen für KMUs ist gestrichen worden, jedoch sollen Größe und wirtschaftliche Leistungsfähigkeit bei der Bemessung der Bußgelder berücksichtigt werden. Mit den reduzierten Bußgeldern geht im Parlamentsentwurf allerdings eine Stärkung von Betroffenenrechten einher. Dieser sieht zusätzliche Rechte für Bürgerinnen und Bürger dahingehend vor, Beschwerden über KI-Systeme einreichen und Erklärungen zu Entscheidungen von Hochrisiko-KI-Systemen erhalten zu können, die sich erheblich auf sie auswirken.

 

Ausblick

Obwohl der AI-Act in seinen Leitplanken – etwa der durch die EU-Kommission vorgesehene risikobasierte Ansatz – von Rat und EU-Parlament nicht in Frage gestellt worden ist, unterscheiden sich die Entwürfe im Detail doch ganz erheblich. So wird es mitnichten eine leichte Aufgabe sein, die unterschiedlichen Vorstellungen hinsichtlich einer Definition von KI und folglich vom Anwendungsbereich des AI-Act zusammenzubringen. Auch das Verbot biometrischer Identifizierungssysteme und etwaige Ausnahmen werden ein großer Streitpunkt sein, so viel lassen die zahlreichen Änderungsanträge am Tag der Abstimmung sowie die vorausgegangenen medial ausgebreiteten Streitigkeiten im EU-Parlament erahnen. Ob sich schlussendlich die Linie des EU-Parlaments durchsetzen wird, bleibt abzuwarten. Es ist jedenfalls zu hoffen, dass den drei Organen unter dem selbstgesteckten großen Zeitdruck ein sinnvoller Kompromiss gelingt, der europäische Werte gegen den unkontrollierten Einsatz von KI schützt und Unternehmen sogleich ausreichend Platz für Innovation lässt.

 

b.kohn@taylorwessing.com

f.pieper@taylorwessing.com