KI und Kartellrecht: Von algorithmischen Kartellen zur autonomen Kollusion

Artikel anhören
Artikel zusammenfassen
Teilen auf LinkedIn
Teilen per Mail
URL kopieren
Drucken

Künstliche Intelligenz (KI) revolutioniert die Geschäftswelt und damit auch das Kartellrecht. Unternehmen, die KI-gestützte Systeme zur Preissetzung und Marktbeobachtung einsetzen, riskieren kartellrechtswidrige Verhaltensweisen – im Extremfall ohne es zu merken. Die jüngere kartellbehördliche Praxis und der EU AI Act zeigen, dass Wettbewerbsbehörden und Gesetzgeber weltweit dieser Entwicklung mit wachsender Aufmerksamkeit begegnen.

Verschiedene Einsatzmöglichkeiten von Algorithmen und KI bei Kartellen

Begrifflich ist zu unterscheiden: Ein Algorithmus überführt nach fest definierten Anweisungen einen Input in einen Output. KI-Systeme hingegen erkennen auf Basis maschinellen Lernens eigenständig Muster, treffen Prognosen und entwickeln Entscheidungsoptionen weiter. Kartellrechtlich ist dies bedeutsam, weil bei klassischen Algorithmen die Verantwortung klar beim Menschen liegt, während KI-Systeme autonom agieren können – mit neuartigen Haftungsfragen als Folge.

Kartellrechtlich relevante Sachverhalte unter Einsatz von KI lassen sich grob in drei Szenarien darstellen:

Szenario 1: Menschliches Kartell mit Umsetzung durch Algorithmen

Im Jahr 2016 untersuchte die britische Competition and Markets Authority (CMA) zwei Online-Verkäufer von Postern, die vereinbart hatten, sich auf Amazon Marketplace nicht gegenseitig beim Preis zu unterbieten, und die automatisierte Preisanpassungssoftware zur Umsetzung dieser Absprache nutzten. Das Kartellverbot kommt uneingeschränkt zur Anwendung: Die Algorithmen sind reines Umsetzungsmittel einer menschlichen Entscheidung – und die kartellrechtliche Verantwortung bleibt beim Menschen.

Szenario 2: Vereinfachte Kollusion durch Algorithmen – Plattformen als Koordinierungsinstrument

Im August 2024 klagte das US-Justizministerium (DOJ) gegen RealPage, einen Anbieter von Revenue-Management-Software für den Mietwohnungsmarkt. Der Vorwurf: RealPage sammelte nicht-öffentliche, kommerziell sensible Preisdaten konkurrierender Vermieter und speiste diese in einen Algorithmus ein, der optimale Mietpreisniveaus empfahl und die Befolgung dieser Empfehlungen technisch begünstigte. Das DOJ schätzt den Schaden auf durchschnittlich 70 US-Dollar pro Mieter und Monat – insgesamt rund 3,8 Milliarden US-Dollar allein im Jahr 2023. Das Verfahren gegen RealPage wurde durch Vergleich beigelegt; RealPage darf künftig keine aktuellen Wettbewerberdaten für Preisempfehlungen verwenden und keine kommerziell sensiblen Daten an Nutzer weitergeben. Das Verfahren gegen die beteiligten Vermieter als „Spokes“ des Hub-and-Spoke-Geflechts läuft weiter.

Setzen mehrere Unternehmen dasselbe KI-System ein, das Empfehlungen auf Basis eines einheitlichen Datensatzes ausgibt, entsteht de facto eine Koordinierung. Wissen die Unternehmen, dass auch Wettbewerber dasselbe System nutzen, ist die Grenze zum Kartellverbot erreicht.

Ein instruktives europäisches Beispiel ist der Eturas-Fall des EuGH (2016). Litauische Reisebüros nutzten ein gemeinsames Online-Buchungssystem, über das der Systemadministrator eine einheitliche Rabattgrenze von 3% setzte. Der EuGH bejahte eine abgestimmte Verhaltensweise im Sinne von Art. 101 Abs. 1 AEUV – obwohl keine direkte menschliche Kommunikation zwischen den Wettbewerbern stattgefunden hatte. Maßgeblich war, ob die Reisebüros wussten oder vernünftigerweise hätten wissen müssen, dass ihre Konkurrenten dasselbe System unter denselben Bedingungen nutzen. Diese Frage nach der Wissenszurechnung stellt sich in analoger Form bei jeder gemeinsam genutzten KI-Plattform.

Szenario 3: Eigenmächtige Kollusion durch KI – der (noch) unbekannte Fall

Denkbar ist schließlich, dass selbstlernende KI-Systeme ohne menschliche Koordination eigenständig koordiniertes Verhalten entwickeln. Reale Fälle gibt es bislang nicht – aus Sicht der Behörden besteht hier jedoch ein Vollzugsdefizit. Die Europäische Kommission stellt in ihren Horizontal-Leitlinien klar, dass ein Algorithmus unter der Kontrolle des Unternehmens steht und eine Haftungsbefreiung durch Verweis auf autonome KI-Entscheidungen nicht in Betracht kommt. Ob eine abgestimmte Verhaltensweise ohne jegliche menschliche Kommunikation nachweisbar ist, bleibt kartellrechtlich ungeklärt.

Weltweite Enforcement-Aktivitäten im Kontext mit KI nehmen zu

Über die genannten Fälle hinaus zeigt sich, dass die Wettbewerbsbehörden weltweit die Gefahr von Kartellverstößen durch den Einsatz von KI im Blick haben. Auch Brasiliens Wettbewerbsbehörde CADE ist aktiv: Im Kraftstoffsektor wurde im November 2024 eine Untersuchung eines algorithmischen Preissetzungswerkzeugs eingeleitet. Darüber hinaus steht nach rund zweieinhalb Jahren Vorermittlungen die förmliche Verfahrenseröffnung gegen Gol Linhas Aereas und LATAM Airlines Brasil bevor. Der Vorwurf: Beide Fluggesellschaften sollen dieselbe Preissoftware genutzt haben, über die kommerziell sensible Daten ausgetauscht wurden, was zu nahezu identischen Preisen auf zentralen Inlandsrouten geführt habe. CADE geht davon aus, dass die digitale Koordinierung effektiver war als eine klassische persönliche Abstimmung – ein Befund, der für die kartellrechtliche Risikoeinschätzung gemeinsam genutzter Preissoftware wegweisend ist.

Auch in Europa sind erste Enforcement-Maßnahmen zu verzeichnen: In Spanien untersuchte die Wettbewerbsbehörde CNMC eine mögliche Hub-and-Spoke-Absprache zwischen den Fahrdienstleistern Uber, Cabify und Bolt, die zwischen 2020 und 2024 eine Koordinierung über ihre Algorithmen und Fahrerplattformen ermöglicht haben sollen. In Deutschland schöpfte das Bundeskartellamt wirtschaftliche Vorteile in Höhe von 59 Millionen Euro von Amazon ab, da dessen automatisierter Preiskontrollmechanismus als wettbewerbswidrig eingestuft wurde. Diese Fälle zeigen: Algorithmische Preissetzung ist längst kein rein amerikanisches Enforcement-Thema mehr. In Italien wird seit November 2023 die Nutzung dynamischer Preisgestaltungssysteme im inländischen Flugticketmarkt geprüft.

Ravneet Kaur, Vorsitzende der Competition Commission of India, brachte es im Dezember 2024 auf den Punkt: „KI hat das Potential, Kartellbildung zu unterstützen, indem sie kollusives Verhalten durch prädiktive Algorithmen automatisiert.“ Diese Einschätzung teilen Wettbewerbsbehörden weltweit.

Kartellbehörden rüsten technologisch auf

Nicht nur Unternehmen, auch Kartellbehörden setzen zunehmend auf KI: zur Identifikation von Vergabeauffälligkeiten (Spanien, Schweiz), zur Preisverfolgung und Beweisgenerierung (CMA, Vereinigtes Königreich), zur Marktbeobachtung (Bundeskartellamt) und zur automatischen Auswertung von Earnings Calls (Europäische Kommission).

Paradoxerweise schränkt der AI Act die Behörden dabei gegebenenfalls aber ein: Die Nutzung von KI zur Aufdeckung von Straftaten – also etwa Submissionsabsprachen, die in Deutschland nach § 298 StGB strafbar sind – gilt nach dem AI Act als Hochrisikoanwendung. Die damit verbundenen Anforderungen an Dokumentation, Konformitätsbewertung und menschliche Aufsicht sind so aufwendig, dass Kartellbehörden auf den KI-Einsatz bei genau denjenigen Fällen verzichten könnten, bei denen er am hilfreichsten wäre.

Complianceanforderungen für Unternehmen – Risiken

Der Einsatz von KI birgt für Unternehmen drei zentrale kartellrechtliche Risiken:

  • Stillschweigende Kollusion durch Algorithm-Design: Algorithmen können eine de facto-Koordinierung erleichtern, ohne dass ein expliziter Austausch stattfindet. Auch wenn eine abgestimmte Verhaltensweise schwer nachzuweisen ist – eine Haftungsbefreiung allein durch den Verweis auf den autonomen Charakter der KI ist nach dem Stand der Leitlinien nicht möglich.
  • Dynamische Preissetzung: Algorithmenbasierte Preissetzung kann sowohl ausschließend (Verdrängungspreise, Margin-Squeeze) als auch ausbeuterisch (überhöhte Preise, Preisdiskriminierung) wirken und damit Missbrauchstatbestände nach Art. 102 AEUV berühren – auch ohne kartellrechtliche Absprache.
  • AI-Act-konformer Informationsaustausch: Der AI Act verpflichtet Anbieter und Nutzer von Hochrisiko-KI zur Weitergabe von Logs und technischer Dokumentation. Diese können kommerziell hochsensible Informationen enthalten. Unternehmen müssen sicherstellen, dass dieser regulatorisch verpflichtende Austausch nicht als unzulässiger Informationsaustausch unter Wettbewerbern gewertet wird.

Best Practices für die Complianceorganisation

Unternehmen bleiben trotz KI-Einsatz kartellrechtlich verantwortlich und können sich nicht auf die Autonomie der Systeme berufen. Daraus folgt für die Complianceorganisation:

  • Die Algorithmen und KI-Systeme bedürfen menschlicher Aufsicht; die menschlichen Verantwortlichkeiten sind zu dokumentieren. Artikel 14 der KI-Verordnung mahnt ausdrücklich, den Ergebnissen eines (Hochrisiko-)KI-Systems nicht per se oder übermäßig zu vertrauen (sogenannter Automatisierungsbias). Konkret bedeutet dies: Unternehmen sollten verstehen, welche Daten in das System fließen, wer darauf Zugriff hat und wie der Algorithmus seine Empfehlungen generiert – besondere Vorsicht ist geboten, wenn dieselbe Software auch von Wettbewerbern eingesetzt wird. Auch Legacy-Systeme, die nachträglich mit KI-Funktionen ausgestattet wurden, sind in diese Prüfung einzubeziehen.
  • Der konkrete Einsatzbereich der Algorithmen und KI-Systeme sollte sauber festgehalten werden. Gleiches gilt für das Design der Algorithmen und KI-Systeme, ihre Trainingsdaten und implementierten Entscheidungsprozesse. Auf die Aktualität dieser Dokumentation ist zu achten.
  • Die Ergebnisse, die durch den Einsatz von Algorithmen und KI-Systemen entstehen, sollten regelmäßig überprüft, aktualisiert und dokumentiert werden.
  • An den Einsatz von Hochrisiko-KI-Systemen nach der KI-Verordnung stellen sich besondere Anforderungen, auch unabhängig von kartellrechtlichen Risiken.

Dabei ist zu beachten: Auch wenn das Tool selbst kartellrechtlich unbedenklich ist, können Absprachen zwischen Mitarbeitern verschiedener Unternehmen über dessen Einstellungsparameter einen Kartellrechtsverstoß begründen.

Ausblick

Die kartellrechtliche Einordnung von KI-gestützter Preissetzung steckt noch in den Kinderschuhen. Bislang haben die klassischen Regeln – angewandt auf neue Sachverhalte   funktioniert. Doch die Grenzen werden sichtbar: Autonome Kollusion durch KI ohne menschliche Kommunikation ist mit dem traditionellen Konzept der „abgestimmten Verhaltensweise“ nur schwer zu erfassen.

Auf regulatorischer Ebene zeichnen sich zwei Entwicklungen ab: Der AI Act versorgt Kartellbehörden mittelbar mit sensiblen Unternehmensinformationen – ein struktureller Wandel in der Ermittlungspraxis. Zugleich gewinnt der Ruf nach einem europäischen „New Competition Tool“ an Gewicht, das Eingriffsrechte unabhängig vom Nachweis eines konkreten Kartellverstoßes ermöglichen würde. Für Unternehmen folgt daraus: KI-Compliance erfordert kartellrechtliche Sensibilität auf allen Ebenen – von der Softwareauswahl über das Algorithm-Design bis zur täglichen Nutzung durch Mitarbeiter. 

Autor

Kaan Gürer, LL.M. Linklaters LLP, Düsseldorf Rechtsanwalt, Counsel

Kaan Gürer

Linklaters LLP, Düsseldorf
Rechtsanwalt, Counsel


kaan.guerer@linklaters.com
www.linklaters.com


Autor

Julia Göke Linklaters LLP, Düsseldorf Rechtsanwältin, Associate

Julia Göke

Linklaters LLP, Düsseldorf
Rechtsanwältin, Associate


julia.goeke@linklaters.com
www.linklaters.com