CDR – das betrifft doch den Rechtsmarkt nicht, oder doch?

Beitrag als PDF (Download)

 

Worum geht es hier eigentlich?

Corporate Digital Responsibility (CDR), digitale Ethik, Datenethik, moralische Verantwortung im Zeitalter der Digitalisierung: Das klingt schon beinahe nach abgedroschenen Phrasen aus einer zweitklassigen Beraterliteratur. Mit dieser Einschätzung würde man dem Thema beziehungsweise dem Themenkomplex Unrecht tun und es in eine völlig falsche Ecke rücken.

Ob wir wollen oder nicht, die Interaktion mit Algorithmen und künstlicher Intelligenz ist längst zum Alltag geworden. Mit den Fortschritten der Digitalisierung und digitalen Transformation erleben wir permanent, dass datengetriebene Geschäftsmodelle, Algorithmen und künstliche Intelligenz zunehmend mit gesellschaftlichen und sozialen Normen und auch mit unseren gesetzlichen Regelungen kollidieren. So hat beispielsweise der Fall „Facebook“ für große Aufregung gesorgt, als der dort eingesetzte Algorithmus Menschen diskriminierte und Menschen mit dunkler Hautfarbe als „Gorillas“ klassifiziert hat.1 In einem anderen Fall musste sich Microsoft für einen Chatbot entschuldigen, der sich – autonom handelnd – rassistisch und sexistisch geäußert hat.2 Es gibt auch noch weitere derartige Vorfälle, sei es aus dem Bereich der Kreditvergabe3 oder im Gesundheitswesen4, und zahlreiche weitere Fälle drängen sich jeder Person auf, die sich mit dem Thema beschäftigt.

Diese Beispiele sind zwar (noch) Einzelfälle, aber sie sind real. Sie zeigen, dass das Thema relevant ist und ernst genommen werden muss. Das sieht auch die Europäische Kommission so, die sich seit einigen Jahren mit dem Thema beschäftigt und eigens dafür eine „High Level Expert Group on AI“ (HLEG AI) eingerichtet hat. Diese HLEG AI hat aus dem komplexen Themenbereich sieben Kernanforderungen (englisch „Key-Requirements“5) festgelegt und den Begriff der „Trustworthy AI“ geprägt. Diese sieben Kernanforderungen, die in Zukunft bei der Entwicklung von künstlicher Intelligenz berücksichtigt werden sollten, lauten:

  1. Vorrang menschlichen Handelns und menschlicher Aufsicht (englisch „Human Agency and Oversight“)
  2. technische Robustheit und Sicherheit (englisch „Technical Robustness and Safety“)
  3. Schutz der Privatsphäre und Datenqualitätsmanagement (englisch „Privacy and Data-Governance“)
  4. Transparenz (englisch „Transparency“)
  5. Vielfalt, Nichtdiskriminierung und Fairness (englisch „Diversity, Non-Discrimination and ­Fairness“)
  6. gesellschaftliches und ökologisches Wohlergehen (englisch „Societal and Environmental Well-Being“)
  7. Rechenschaftspflicht (englisch „Accountability“)

Bei der Auseinandersetzung mit den Kernanforderungen fällt auf, dass diese Prinzipien der HLEG AI sehr abstrakt sind und deshalb für Unternehmen nicht unmittelbar in die Planung und Entwicklung von Algorithmen mitaufgenommen werden können. Es bedarf der Konkretisierung und der Erarbeitung von Handlungsempfehlungen, die die Umsetzung der Prinzipien erlauben. Und genau das haben viele Unternehmen in den vergangenen Monaten gemacht.

Wie gehen andere Unternehmen mit dem Thema um?

Gute Frage! Dazu ein kurzer Bericht aus der Praxis: Die BMW Group hat sich mit einem veröffentlichten „Code of Ethics for AI-Applications“6 einen Rahmen gegeben für den Einsatz von KI. Dieser Code ist unternehmensweit abgestimmt worden und unterstreicht die Querschnittrelevanz dieses Themas. Der Code ist im Rahmen des „Project AI“ entwickelt worden, also des Bereichs, in dem die KI-Kompetenz zentral gebündelt ist. Als Technologieunternehmen weist die BMW Group in einem Interview7 darauf hin, dass KI nicht nur im autonomen Fahrzeug zum Einsatz kommt, sondern auch entlang der gesamten Wertschöpfungskette Einzug halten wird. Die inhaltliche Auseinandersetzung mit dem Thema zeigt, dass neben internen Diskussionen auch der Blick nach außen, zu anderen Unternehmen und Initiativen, unerlässlich ist. Es gibt mittlerweile eine Vielzahl von möglichen Leitlinien, derer man sich bedienen kann, um das Thema digitale Ethik/KI-Ethik zu entwickeln. Die BMW Group hat sich hierbei an den Vorschlägen der HLEG AI orientiert, was sich als zukunftsfähig erwiesen hat, da die Arbeiten der HLEG AI auch in die vorliegenden Vorschläge zur Regulierung von künstlicher Intelligenz (sogenannter AI Act8) eingeflossen sind. Damit bietet der „Code of Ethics for AI-Applications“ eine hervorragende Grundlage, sich mit dem Thema vertieft zu beschäftigen und es Schritt für Schritt in Prozesse und Anwendungen einfließen zu lassen.

Wo stehen wir bei dem Thema hinsichtlich des Rechtsmarkts?

Es drängt sich die Frage auf, ob CDR und digitale Ethik für den Rechtsmarkt eine Rolle spielen. Unternehmen und Großkanzleien bis hin zu Alternative-Legal-Service-Providers könnten sich ja denken: „Was soll’s, wir beraten ja nur andere!“

In einem Artikel für die „Legal Business Review“9 ist dazu schon Stellung bezogen worden, und es ist wichtig zu verstehen, dass das Thema CDR aus mindestens zwei Perspektiven zu betrachten ist:

Der Blick nach innen: In Prozessen und Applikationen, die zukünftig die Effektivität, die Effizienz oder das Risikomanagement verbessern sollen, werden Digitalisierung und vermutlich auch künstliche Intelligenz eine Rolle spielen. Welche Daten dort verarbeitet werden, auf welche Art und Weise die Verarbeitung erfolgt und welche (automatisierten) Entscheidungen getroffen werden, kann zu einem Konflikt mit sozialen Normen und Erwartungen führen. Damit ist man bereits mittendrin in der Diskussion zu der eigenen Digital Responsibility.

Der Blick nach außen: Angesichts der steigenden Relevanz und der zunehmenden Regulierungen (Stichwort: AI-Act) erwarten Kunden, Mandanten und Partner in Zukunft ausgeprägte Kompetenzen und Sensibilisierung für den Bereich CDR. Möglicherweise bekommen wir ein attraktives Beratungsprojekt nicht, weil Defizite im Bereich CDR erkennbar sind. Es sei auch noch erwähnt, dass es Studien gibt, die untersuchen, ob es sich auf das Branding eines Arbeitgebers positiv auswirkt, falls er nachweisen kann, dass er sich mit dem Thema AI-Ethics ernsthaft beschäftigt.10

Der Rechtsmarkt wird sich, wie andere Bereiche auch, zu dem Thema positionieren müssen. Erste Aktivitäten, um das Feld ganzheitlich und professioneller zu bearbeiten, sind bereits unternommen worden, so zum Beispiel mit der Gründung der Task Force des BWD „Corporate Digital Responsibility“ unter der Leitung von Prof. Dr. Florian Drinhausen. Weitere Anstrengung, Zusammenarbeit, sowie der Austausch von Wissen, Meinungen und Argumenten sind unerlässlich, damit das Thema zu einer Erfolgsstory für den Rechtsmarkt wird.

Warum ist Kollaboration in diesem Bereich unerlässlich?

Hier können nur Aspekte und Denkanstöße in den Raum geworfen werden, die letztlich ein Plädoyer für eine intensivere Auseinandersetzung mit CDR sind. Es gibt viele Bereiche, die man berücksichtigen muss, und sie sind keineswegs trivial – insbesondere deshalb, weil die Beantwortung der relevanten Fragen (deren Identifikation schon eine erste große Herausforderung ist!) eine interdisziplinäre Zusammenarbeit erforderlich macht. Es ist also, wie so oft bei den wirklich anspruchsvollen Themen unserer Zeit, Kollaboration erforderlich.

Die gute Nachricht ist, dass sich die Teilnehmer des Rechtsmarkts keineswegs von null alles selbst erarbeiten müssen. Andere Unternehmen und Disziplinen sind schon deutlich weiter und haben das Thema bereits ausgearbeitet und mit vielen Inhalten versehen. Davon kann der Rechtsmarkt profitieren.

Eine interdisziplinäre Projektgruppe am Liquid Legal Institute (LLI) beschäftigt sich schon seit knapp einem Jahr mit dem Thema „Corporate Digital Responsibility (CDR) for the Legal Sector“11. Neben zahlreichen Vorträgen und Präsentationen gibt es auch schon eine erste Publikation (siehe Verweis auf den Artikel in der Legal Business World). Darüber hinaus hat das LLI auch eine frei verfügbare Wissensdatenbank12 aufgebaut. Diese Datenbank konsolidiert wichtige Informationsquellen zu CDR und digitaler Ethik sowie Stellungnahmen von Unternehmen zu diesem Thema. Die Wissensdatenbank steht allen offen und kann – ähnlich wie Wikipedia – von jeder Person ergänzt und angereichert werden.

 

_____
Hinweis der Redaktion:
Der Autor ist Mitglied der Task Force „Corporate Digital Responsibility” im Bundesverband der Wirtschaftskanzleien in Deutschland (BWD).
Der Task Force gehören weiterhin an: Prof. Dr. Florian Drinhausen (Leiter der Task Force, Ashurst), Bettina Backes (Haver & Mailänder), Dr. Andreas Mauroschat (Ashurst), Stefan Rizor, LL.M. (McGill), (Vorstand BWD), Prof. Dr. Thomas Wegerich (Vorstand BWD). (tw)

_____

1 https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
2 https://www.theguardian.com/technology/2016/mar/26/microsoft-deeply-sorry-for-offensive-tweets-by-ai-chatbot
3 https://www.washingtonpost.com/business/2020/10/16/how-race-affects-your-credit-score/
4 https://www.latimes.com/california/story/2022-09-01/california-investigating-racial-bias-in-healthcare-algorithms
5 https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
6 https://www.bmwgroup.com/content/dam/grpw/websites/bmwgroup_com/downloads/ENG_PR_CodeOfEthicsForAI_Short.pdf
7 https://corporate-digital-responsibility.de/praxis/ki-kodex-von-bmw/
8 https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence
9 Rose, Jolanda, und Waltl, Bernhard, in Legal Business World, „Responsible Innovation, CDR, and the Legal Sector“, S. 46–51. No. 2, 2022.
10 Clausen, Sünje, Brünker, Felix, Jung, Anna-Katharina, and Stieglitz, Stefan, „The Impact of Signaling Commitment to Ethical AI on Organizational Attractiveness“ (2022). Wirtschaftsinformatik 2022 Proceedings. 10.
11 https://www.liquid-legal-institute.com/workinggroups/corporate-digital-responsibility-cdr/
12 https://github.com/Liquid-Legal-Institute/Corporate-Digital-Responsibility

Aktuelle Beiträge