Künstliche Intelligenz (KI) hat in zahlreichen Branchen tiefgreifende Veränderungen angestoßen. Trotz der traditionell eher zurückhaltenden Haltung des Rechtssektors bleibt auch die Streitbeilegung von diesen Entwicklungen nicht unberührt: Moderne generative KI-Systeme auf Basis großer Sprachmodelle (Large Language Models, LLMs) markieren einen technologischen Wendepunkt für die juristische Fallbearbeitung. Die zugrundeliegenden Sprachmodelle sind auf enormen Mengen unstrukturierter Textdaten trainiert und in der Lage, natürliche Sprache mit bemerkenswerter Präzision zu „verstehen“ und zu erzeugen.
Dadurch eröffnen sich völlig neue Ansätze, wie Streitfälle künftig vorbereitet, strukturiert und gegebenenfalls auch entschieden werden können. Autonom entscheidende KI-Systeme könnten insbesondere bei rechtlich einfachen, massenhaft auftretenden oder niedrigwertigen Streitigkeiten den Zugang zum Recht verbessern, indem Verfahren schneller, kostengünstiger und niedrigschwelliger gestaltet werden. De lege ferenda eröffnet dies die Möglichkeit, die Justiz zu entlasten und zugleich die tatsächliche Rechtsverwirklichung zu stärken.
Technologisches Potential von künstlicher Intelligenz in der Streitbeilegung
Neben der Fähigkeit der LLMs, verschiedenste juristische Dokumente selbst zu entwerfen, können die Sprachmodelle Schriftsätze, ganze Akten oder umfangreiche Sachverhaltsunterlagen in kurzer Zeit auf ihre wesentlichen Inhalte verdichten und als prägnante Zusammenfassungen oder chronologische Übersichten bereitstellen. Verweise auf Fundstellen im Original werden von vielen KI-Tools als Links zur Verfügung gestellt. Anwender erhalten auf diese Weise einen schnellen Überblick über komplexe Sachverhalte, ohne auf die Tiefe der Information verzichten zu müssen. Ebenso können relevante Daten automatisiert aus großen Textmengen extrahiert werden, wobei der Kontext – im Gegensatz zu klassischen Stichwortsuchen – adäquat berücksichtigt werden kann. Auch die automatisierte Klassifikation von Fällen eröffnet neue Möglichkeiten: Komplexe Verfahren oder Sachverhalte können systematisch kategorisiert, relevanten rechtlichen Fragestellungen zugeordnet und Muster erkannt werden. Über Frage-Antwort-Funktionen ist eine direkte, interaktive Kommunikation mit dem LLM zum Fall oder der Akte möglich. Anwender können gezielte Fragen zu bestimmten Aspekten stellen und erhalten unmittelbar kontextbezogene Antworten, ohne Dokumente manuell durchsuchen zu müssen.
Da LLMs in der Lage sind, die emotionale Tonlage von Texten zu erkennen, können sie auch Rückschlüsse auf die Gemütslage der Verfasser ziehen. So lässt sich etwa analysieren, ob eine E-Mail sachlich, verärgert oder beschwichtigend formuliert ist oder ob Zeugenaussagen Anzeichen von Unsicherheit oder Überzeugung enthalten. Technisch möglich wäre es zudem, der KI ganz oder teilweise auch die endgültige Entscheidungsfindung zu überlassen. Prädiktive Analytik ist eine der großen Stärken der LLMs und könnte besonders effektiv bei einfachen, stark auf Wiederholung basierenden Angelegenheiten eingesetzt werden, zunächst beispielsweise in der Forderungsbeitreibung oder geeigneten Massenverfahren.
KI-Strategie der Justiz
Die Justiz in Deutschland hat das beschriebene Potential von KI erkannt und arbeitet an einer Vielzahl von Tools, mit denen die Stärken der LLMs vor allem bei der Zusammenfassung von Texten, der Extraktion und Klassifikation von Information sowie dem Generieren von Texten genutzt werden sollen. Orientierung soll dabei seit Juni 2025 eine gemeinsame KI-Strategie der Justizministerien von Bund und Ländern bieten (siehe hier). Im Kern sollen auf Grundlage dieser Strategie Arbeitsprozesse modernisiert, Routineaufgaben automatisiert und eine gemeinsame KI-Infrastruktur der Justiz mit einem zentralen Zugang aufgebaut werden.
Gegenwärtig dominieren aber noch dezentrale Initiativen das Bild. In Baden-Württemberg wurde beispielsweise OLGA, der Oberlandesgerichtsassistent, eingeführt. OLGA ist ein KI-gestütztes Tool, das speziell auf Berufungsverfahren in Dieselemissionsfällen ausgerichtet ist. Es vergleicht am OLG eingehende Fälle mit bereits entschiedenen Berufungen und unterstützt Richterinnen und Richter so bei einer ersten Einschätzung des jeweiligen Falls (siehe hier).
Ein weiteres in der Justiz eingesetztes KI-basiertes Assistenzsystem ist beispielsweise FraUKe (Frankfurter Urteilskonfigurator Elektronisch) im Bereich Fluggastrechte, laut Justizministerium in Hessen das „bundesweit erste Richterassistenztool, bei dem eine künstliche Intelligenz in der Urteilfindung assistiert“ (siehe hier). Ein ähnliches Projekt wurde am Amtsgericht Erding zur Bewältigung von Klagen aus dem Bereich Fluggastrechte gestartet, befindet sich nach öffentlich verfügbaren Informationen zurzeit aber noch in einer frühen Erprobungsphase).
Das LLM-basierte Tool Codefy ist ebenfalls in Hessen im Einsatz. Es fungiert als intelligentes Strukturierungs- und Durchsuchungstool und soll helfen, umfangreiche Verfahrensakten insbesondere in Massenverfahren schneller erfassbar zu machen (siehe hier).
Ähnlich dazu soll MAKI (Massenverfahrensassistenz mit Hilfe von KI) als Kooperationsprojekt der Länder Niedersachsen, Brandenburg, Hessen und Nordrhein-Westfalen wiederkehrende, strukturierbare Aufgaben übernehmen – ohne dabei über Automatismen zu verfügen, die Entscheidungen ersetzen (siehe hier).
Um die Zahl der öffentlich verfügbaren Gerichtsurteile zu erhöhen (Schätzungen gehen davon aus, dass nur 0,5 bis 2% aller Urteile veröffentlicht werden, siehe z.B. die Meldungen bei Beck, LTO oder Transparency International), ist an Gerichten in Hessen und Baden-Württemberg Jano (Justiz-Anonymisierung) zur beschleunigten Anonymisierung gerichtlicher Entscheidungen entwickelt worden. Ab Herbst 2025 soll dieses Tool in beiden Ländern flächendeckend an den Gerichten zum Einsatz kommen (siehe hier).
Weitere Projekte der Justiz sind beispielsweise StruKI (Strukturierung mit KI) zur automatisierten Erfassung elektronischer Verfahrensakten und Erstellung von Aktenspiegeln in Baden-Württemberg (siehe hier) sowie GSJ (Generatives Sprachmodell der Justiz) in Nordrhein-Westfalen und Bayern, das später bundesweit eingesetzt werden und Gerichten helfen soll, juristische Texte mit KI-Unterstützung zu generieren (siehe hier).
Im Ergebnis zeigt sich, dass gemäß der gemeinsamen KI-Strategie der Justiz derzeit keine Vorhaben verfolgt werden, bei denen Entscheidungsbefugnisse – auch nur teilweise – von Menschen auf KI-Systeme übertragen würden. Die sich in Pilot- oder Forschungsstadien befindlichen Anwendungen sind vielmehr auf Bereiche mit hohem Automatisierungsgrad und standardisierbaren Abläufen beschränkt. Zentrale Herausforderung dürfte dabei voraussichtlich die Interoperabilität sein, also die reibungslose Einbindung dieser Systeme in bestehende organisatorische und technische Strukturen der Justiz.
Wesentliche Anwendungsfälle von KI in der anwaltlichen und unternehmensinternen Fallbearbeitung
Ein besonders wirkungsvolles Anwendungsfeld von KI ist die Analyse und Strukturierung großer Datenmengen. Während herkömmliche Reviewplattformen bereits Millionen von Dokumenten erfassen konnten, ermöglichen moderne LLMs nun eine schnelle, zuverlässige und kosteneffiziente Auswertung auch komplexer Inhalte. So lässt sich innerhalb weniger Stunden ein fundierter Überblick über große Dokumentbestände gewinnen – einschließlich der Analyse von Schriftsätzen oder Protokollen auf Widersprüche und neuen Vortrag, was bislang manuell und mit erheblichem Zeit- und Kostenaufwand verbunden war.
Ein derzeit weit verbreiteter Einsatzbereich von KI in der anwaltlichen Praxis ist das toolgestützte Erstellen von Entwürfen für Schriftsätze, Zeugenaussagen oder Vergleichsvereinbarungen. Solche Systeme können den Aufwand für Routinearbeiten deutlich verringern, sofern qualitativ gute Ausgangsdaten vorliegen. Während viele Lösungen ursprünglich für den US-Markt entwickelt worden sind, wächst inzwischen auch in Europa das Angebot, so dass vergleichbare Anwendungen bald breit verfügbar sein dürften.
KI-Systeme können insbesondere wiederkehrende Aufgaben mit gleichbleibender Qualität, jedoch zu deutlich geringeren Kosten übernehmen. So lassen sich etwa bislang manuell erstellte sogenannte Privilege-Logs inzwischen KI-gestützt erzeugen. Als Privilege-Logs werden im anglo-amerikanischen Rechtskreis Dokumente bezeichnet, in denen – etwas vereinfacht ausgedrückt – solche Unterlagen aufgeführt sind, die vom Anwaltsprivileg erfasst sind und aus diesem Grund der gegnerischen Seite nicht zur Verfügung gestellt werden müssen. Die Identifizierung und Zuordnung solcher Unterlagen fanden bislang in einem von händischer Arbeit geprägten Reviewprozess statt. Ebenso können Schriftstücke und Anlagen automatisiert übersetzt und anschließend lediglich von zertifizierten Übersetzern überprüft werden. Auch die Erstellung von Anlagenverzeichnissen, Chronologien oder tabellarischen Übersichten ist mit Hilfe von KI heute innerhalb weniger Minuten möglich.
Ein weiteres wichtiges Einsatzfeld von KI liegt in der Streitfallanalyse. Durch die Auswertung früherer Entscheidungen können KI-gestützte Systeme die Erfolgsaussichten vergleichbarer Fälle prognostizieren und so wertvolle Unterstützung bei der strategischen Fallplanung bieten. Auf Basis einer hinreichenden Datenlage lassen sich zudem belastbare Einschätzungen zum finanziellen Aufwand des unternehmensweiten Streitportfolios gewinnen, was Budgetierung und Rückstellungsbildung erleichtert.
Vielversprechend sind zudem die durch Deep Research ermöglichten Recherchen. Deep Research bezeichnet dabei eine mehrstufige, kontextbasierte KI-gestützte Recherche, bei der ein LLM Informationen aus verschiedenen Quellen analysiert, verknüpft und zu fundierten Erkenntnissen verdichtet. So können innerhalb weniger Minuten zahlreiche öffentliche Quellen gezielt auf fallrelevante Fragestellungen untersucht werden. Auf diese Weise lässt sich etwa der gegnerische Vortrag unmittelbar mit öffentlich zugänglichen Aussagen und dokumentierten Ereignissen abgleichen, um Unstimmigkeiten, Lücken oder Widersprüche sichtbar zu machen.
Tatsächliche Risiken und Hürden beim Einsatz von KI
Bei aller berechtigten Begeisterung darf nicht übersehen werden, dass der Einsatz von KI auch Risiken birgt. Die Ergebnisqualität hängt entscheidend von der Qualität der zugrundeliegenden Daten und der Formulierung der Aufgabenstellung ab – unpräzise oder fehlerhafte Eingaben führen zwangsläufig zu unzuverlässigen Resultaten. Darüber hinaus neigen KI-Systeme dazu, kontextabhängige Feinheiten zu übersehen und dadurch relevante Informationen auszublenden. In komplexen Streitfällen fehlt ihnen oftmals das Gespür für juristische Nuancen oder strategisch-taktische Überlegungen, etwa bei der Planung einer Zeugenbefragung.
Ein zentrales Problem beim Einsatz von KI in der Streitbeilegung ist die Gefahr von Voreingenommenheit (Bias). Da KI-Systeme auf historischen Daten basieren, können sie bestehende Ungleichheiten im Rechtssystem unbewusst fortschreiben – etwa durch die Bevorzugung bestimmter Gruppen oder die fehlerhafte Gewichtung von Argumenten. Besonders im Bereich von B2C-Streitigkeiten kann dies zu unfairen Ergebnissen führen. Daher sind kontinuierliche Kontrollen, etwa mittels statistischer Tests, erforderlich, um die Ergebnisse auf Verzerrungen zu prüfen und die Fairness der Entscheidungen sicherzustellen.
Ein weiteres Risiko liegt im Mangel an Transparenz und Nachvollziehbarkeit von KI-Entscheidungen. Besonders Deep-Learning-Modelle gelten als „Black Boxes“, da ihre internen Entscheidungsprozesse kaum nachvollzogen werden können. Dies kann das Vertrauen in KI-basierte Ergebnisse untergraben und rechtliche Überprüfbarkeit erschweren. Um die Akzeptanz und Legitimität solcher Systeme zu sichern, sind daher Maßnahmen wie nachvollziehbare Begründungen und klare Verantwortlichkeiten erforderlich.
Aktueller rechtlicher Rahmen
Beim Einsatz von KI-Systemen in der Streitbeilegung sind die Vorgaben der DSGVO strikt zu beachten. Datenschutzrechtlich relevant ist vor allem die Nutzung bereits trainierter LLMs zur Analyse personenbezogener Daten, etwa in E-Mails oder Dokumenten. Solche Verarbeitungen können grundsätzlich auf ein berechtigtes Interesse nach Art. 6 Abs. 1 lit. f DSGVO gestützt werden, da KI-gestützte Analysen schneller, präziser und kostengünstiger sind als herkömmliche Reviews. Voraussetzung ist jedoch eine nachvollziehbare Dokumentation, eine klare Zweckbindung sowie Maßnahmen zur Risikominimierung – etwa die Festlegung der Analyseziele, Validierung der Ergebnisse und menschliche Kontrolle. Insgesamt empfiehlt sich ein schrittweises Vorgehen in Abstimmung mit Datenschutzexperten und, wo erforderlich, die Durchführung einer Datenschutz-Folgenabschätzung nach Art. 35 DSGVO.
Beim Einsatz von KI in der Streitbeilegung sind zudem auch die Vorgaben der europäischen KI-Verordnung zu beachten. Relevant ist dabei vor allem die Rolle des Anwenders („Betreibers“) nach Art. 3 KI-VO und die Frage, ob ein System als Hochrisiko-KI im Sinne von Art. 6 Abs. 2 in Verbindung mit Anhang III Nr. 8 a) KI-VO einzustufen ist. Dies betrifft insbesondere KI-Systeme, die von der Justiz, aber auch von Schiedsgerichten bei der rechtlichen Beurteilung des jeweiligen Falles eingesetzt werden und somit potentiell Rechtswirkungen entfalten. In solchen Fällen greifen die umfangreichen Pflichten des Art. 26 KI-VO, etwa zu Transparenz, Kontrolle und menschlicher Aufsicht. Unklar bleibt derzeit allerdings, wo genau die Grenze zwischen einerseits unterstützender und andererseits entscheidungsrelevanter Nutzung verläuft. Die Ausnahmen in Art. 6 Abs. 3 KI-VO finden jedoch Anwendung, so dass KI, die beispielsweise Dokumente kategorisiert, den Schreibstil verbessert oder vorangegangene Entscheidungen übersichtsartig auswertet, ohne diese Zusatzpflichten einsetzbar ist.
Schließlich gelten berufsrechtliche Kernpflichten nach BRAO und BORA auch für den Einsatz von KI. So dürfen vertrauliche Mandatsdaten nur verarbeitet werden, wenn Vertraulichkeit und Datensicherheit – auch bei externen KI-Anbietern – gewährleistet sind, § 43a Abs. 2 BRAO, § 203 Abs. 1 Nr. 3 StGB. Gemäß § 2 Abs. 1, § 43a Abs. 3 BRAO dürfen anwaltliche Prüfung, Bewertung und Entscheidung nicht an KI-Systeme delegiert werden, ein unterstützender Einsatz ist aber möglich. Selbstverständlich müssen dabei die Funktionsweise und Grenzen eingesetzter KI verstanden und die Ergebnisse der KI kritisch überprüft werden, § 43 BRAO, § 6 BORA.
Ausblick: Autonome Entscheidungsfindung durch KI
Während sich die aktuelle Nutzung von KI weitgehend auf die Automatisierung bestimmter Aufgaben und die Analyse von Informationen – also auf assistierende Aufgaben – beschränkt, wäre KI auch heute schon in bestimmten Fällen zu einer autonomen Entscheidungsfindung in der Lage. Am häufigsten diskutierte Anwendungsmöglichkeiten von KI in der Streitbeilegung sind insbesondere rechtlich einfache, niedrigwertige oder großvolumige Ansprüche (auch wenn zurzeit die technischen Möglichkeiten noch nicht ausreichend sein dürften, um komplexe zivilrechtliche Streitigkeiten vollständig durch KI entscheiden zu lassen, ist es wahrscheinlich nur eine Frage der Zeit, bis KI in der Lage ist, auf Basis eines festgelegten Sachverhalts eigenständig Entscheidungen zu treffen – zumindest in Verfahren, die ohne Beweisaufnahme nach Aktenlage entschieden werden können).
So gab erst kürzlich am 17.09.2025 die American Arbitration Association (AAA) die Einführung eines sogenannten AI-Arbitrators, also eines KI-gestützten Schiedsrichters bekannt (siehe hier). Der Einsatz ist ab November 2025 zunächst für dokumentenbasierte Streitigkeiten im Baubereich vorgesehen, einem Segment mit hohem Fallaufkommen und standardisierten Verfahrensabläufen. Für das Jahr 2026 ist eine Ausweitung auf weitere Branchen, andere Streitarten und höhere Streitwerte vorgesehen. Die KI soll die Streitpositionen der Parteien analysieren, begründete Entscheidungsempfehlungen formulieren und Entwürfe von Schiedssprüchen erstellen. Diese Entwürfe werden im Rahmen eines vorgesehenen „Human-in-the-loop“-Verfahrens derzeit noch von menschlichen Schiedsrichtern überprüft, gegebenenfalls angepasst und abschließend validiert, um eine fachliche Kontrolle sicherzustellen.
Das Vorhaben der AAA ist bemerkenswert, weil es über den bisher üblichen Einsatz von KI als reine Unterstützungstechnologie hinausgeht und bereits eine vollständig automatisierte Entscheidungsfindung konzeptionell mitdenkt. Diese Entwicklung reagiert auf ein reales und auch in Deutschland bestehendes Problem: die Funktionsfähigkeit der Justiz unter steigender Belastung zu gewährleisten. So waren deutsche Gerichte allein im Jahr 2024 mit rund 131.000 Klagen im Bereich der Fluggastrechte befasst (siehe hier) – ein Beispiel für das erhebliche Entlastungspotential technischer Automatisierung. Ebenso hätten die Ressourcen der mit stark repetitiven Massenverfahren wie dem Dieselkomplex befassten Richter zur effizienteren Bearbeitung komplexerer Zivilverfahren eingesetzt werden können.
Gleichzeitig steht fest, dass der Einsatz von KI als alleinige Entscheidungsinstanz in gerichtlichen oder schiedsgerichtlichen Verfahren de lege lata ausgeschlossen ist. Insbesondere die Justizgrundrechte der Art. 101 bis 104 GG – allen voran der Anspruch auf den gesetzlichen Richter gemäß Art. 101 Abs. 1 Satz 2 GG sowie der Anspruch auf rechtliches Gehör nach Art. 103 Abs. 1 GG – setzen voraus, dass Entscheidungen durch natürliche, unabhängige und unmittelbar verantwortliche Personen getroffen werden. Entscheidungen durch eine KI wären mit diesen Vorgaben nicht vereinbar.
Allerdings muss dieser Befund de lege ferenda unter dem Gesichtspunkt einer Demokratisierung des Zugangs zum Recht kritisch hinterfragt werden. Richtig konzipiert und verantwortungsvoll eingesetzt bergen KI-gestützte Entscheidungen erhebliches Potential, gerichtliche und schiedsgerichtliche Streitbeilegung schneller, kostengünstiger und leichter zugänglich werden zu lassen. Damit könnten jene drei Kernpfeiler des Zugangs zum Recht entscheidend gestärkt werden, die in der Praxis über die tatsächliche Rechtsverwirklichung entscheiden. Vor diesem Hintergrund besteht für die Zukunft ausreichend Anlass, die Möglichkeiten einer verfassungs- und verfahrensrechtlich tragfähigen Integration von KI in die Entscheidungsfindung auch im Sinne einer konstruktiven Fortentwicklung der Rechtspflege zu diskutieren.



