Liebe Leser:innen,In dieser Ausgabe haben wir wieder ganz viele interessante Themen rund um Legal Tech im Newsletter.
In mehreren Jurisdiktionen wurde bereits Klage gegen Open AI eingereicht. Mit einer neuen Strategie des US-Unternehmens könnte sich das Unternehmen rechtlich absichern und die Gerichtsprozesse beenden.
In Bochum hat sich die erste deutsche Gesellschaft für Didaktik der Rechtswissenschaft gegründet.
Mit Juris Collect soll eine neue Möglichkeit zur Veröffentlichung von Daten entstehen- ist das neue Tool eine Falle für Anwälte?
Nach einem wettberwerbsrechtlichen Urteil gegen Google Chrome könnte Alphabet jetzt zum Verkauf des Browsers gezwungen werden.
Kurz vor der Veröffentlichung der Leitlinien geben wir Euch einen Überblick über die Probleme des AI Act und zeigen die Stellen auf, an denen die Kommission nachbessern kann (und muss).
Einen Veranstaltungs-Tipp gibt es auch noch: Wir veranstalten ein letztes recode.talks Event vor der Weihnachtspause zum Thema Blockchain und Kryptowährungen mit Prof. Dr. Pesch.
Redaktion: Dennis, Jeremias, Johannes, Linus, Mounir, Patrick und Friedrich.
Wir sind gespannt auf Eure Meinung! Wir freuen uns über eure Vorschläge und Feedback an radar@recode.law!
Open AI in mehreren Jurisdiktionen unter Beschuss
Wurde geistiges Eigentum von Drittparteien unrechtmäßig für das KI-Training genutzt?
Die Rechtsberatungskosten von OpenAI dürften seit über einem Jahr erheblich gestiegen sein. Nicht zuletzt, weil Elon Musk – Investor des ehemaligen Nischenprojekts – Ende November erneut eine einstweilige Verfügung vor einem US- Bundesgericht beantragte, um OpenAI daran zu hindern, vollständig gewinnorientiert zu werden. Doch das größere Problem sind die zunehmenden Vorwürfe zum Training ihrer KI-Systeme. Immer mehr Kläger aus unterschiedlichen Jurisdiktionen werfen OpenAI vor, fremdes geistiges Eigentum rechtswidrig für ihr Training genutzt zu haben und suchen gerichtliche Bestätigung dafür.
Der 27. Dezember 2023 markierte den Beginn einer regelrechten Klagewelle. An diesem Tag reichte die New York Times in New York Klage gegen acht OpenAI-Einheiten sowie gegen Microsoft ein. In der 69 Seiten langen Klageschrift erhob die Zeitung weitreichende Vorwürfe: von der rechtswidrigen Nutzung ihrer Inhalte für Trainingszwecke bis hin zur Bereitstellung von Paywall-geschützten Beiträgen. Ende April 2024 folgten weitere US-Medienhäuser, darunter die Daily News, mit einer weiteren Klage gegen den Entwickler von ChatGPT. In den darauffolgenden Monaten weiteten sich die Vorwürfe auf andere Jurisdiktionen aus: Im November 2024 verklagte die GEMA OpenAI vor dem Landgericht München, und kurz darauf wurde bekannt, dass eine Gruppe kanadischer Medienhäuser ebenfalls rechtliche Schritte eingeleitet hat.
Die Entwicklung der Rechtsstreitigkeiten bleibt abzuwarten. All diese Entwicklungen haben Gemeinsam, dass OpenAI mit massiven Vorwürfen konfrontiert ist, die ihr Geschäftsmodell kritisch beleuchten. Die Vorwürfe ähneln sich über verschiedene Jurisdiktionen hinweg, und die Interessenlage ist klar: OpenAI baut auf hochwertigen Datensätzen, um erstklassige Produkte zu schaffen, während die Kläger von den Früchten ihrer Arbeit profitieren möchten und daher nicht einfach wegschauen können, wenn sie befürchten, dass OpenAI ihre Assets gebraucht und sie selbst hiervon nicht profitieren.
Während OpenAI noch in alte Rechtsstreitigkeiten verwickelt ist, verfolgt das Unternehmen offenbar bereits eine neue Strategie: Es schließt Lizenzverträge mit Medienhäusern ab, die gegen Gebühr die Nutzung ihrer Inhalte, etwa für Trainingszwecke, erlauben. Mitte des Jahres wurde ein mehrjähriger Deal mit News Corp., dem Unternehmen hinter dem Wall Street Journal, abgeschlossen. Auch die Kläger der aktuellen Verfahren dürften an ähnlich lukrativen Vereinbarungen interessiert sein.
Konsolidierung der Reformbestrebungen im Jurastudium
Gründung der Gesellschaft für Didaktik der Rechtswissenschaft
Seit Jahren dauert der Diskurs um die Reform des Jurastudiums an. Dennoch blieben wesentliche strukturelle Veränderungen bislang aus. Auch die Einführung des integrierten Bachelors, der im November sowohl in Baden-Württemberg als auch in HessenGegenstand eines Gesetzesentwurfes war, vermag zwar den akuten Druck des Studiums, nicht aber des grundlegenden Reformbedarfs zu schmälern. Was den zahlreichen Initiativen, von denen der Diskurs vorwiegend betrieben wird, bislang fehlte, war eine übergreifende Plattform, die die verschiedenen Ansätze bündelt und strukturiert weiterentwickelt.
Diese Lücke soll nun durch die Gesellschaft für Didaktik der Rechtswissenschaft geschlossen werden. Der Verein ist am 21. November 2024 in Bochum im Rahmen einer Tagung zur „Zukunft der rechtswissenschaftlichen Fachdidaktik“ gegründet worden. Wie der Name bereits vermuten lässt, geht es dem Verein um eine rein wissenschaftliche – nicht aktivistische – Auseinandersetzung mit Reformfragen, wie sie in anderen Disziplinen wie der Medizin oder der Theologie längst etabliert und institutionalisiert ist.
„Es gibt eine kritische Masse von Stimmen, die zur Reformdebatte beitragen, aber diese müssen vernetzt werden“, betont Mitgründer Prof. Dr. Julian Krüper in einem Interview mit der Redaktion von beck-aktuell. Der Verein hat es sich zur Aufgabe gemacht, diese Vernetzung zu fördern und so den Austausch zwischen Hochschulen, Prüfungsämtern, Praktikern und der Wissenschaft zu stärken.
Inwieweit der Reformprozess durch diesen professionalisierten Diskurs des neuen Dachvereins tatsächlich vorangetrieben und das Curriculum inhaltlich und strukturell überdacht wird, bleibt abzuwarten.
Juris Collect
Softwareprodukt als Haftungsfalle für Juristen?
Insbesondere im juristischen Bereich ist die Einführung neuer Softwareprodukte regelmäßig eine Herausforderung. Auf der einen Seite steht großer Innovationsdruck: Legal-Tech-Anwendungen müssen dringend in den Arbeitsalltag von Gerichten und Anwaltskanzleien integriert werden, um die Rechtsbranche effizienter und zukunftsfähiger zu machen. Auf der anderen Seite stehen wichtige und schützenswerte Rechtsgüter, etwa die Vertrauenswürdigkeit rechtsstaatlicher Institutionen und der Schutz personenbezogener Daten.
Im Spannungsfeld dieser Pole steht auch die aktuelle Kontroverse um „Juris Collect“. Die Anwendung erlaubt es Nutzern eigene Dokumente in die Juris-Datenbank einzuspeisen. Die hochgeladenen Inhalte sind nur innerhalb des eigenen Juris-Zugangs einsehbar, können aber in der Folge mit der indexbasierten Suchmaschine von Juris präzise durchsucht und mit den Juris-Inhalten zentral verknüpft werden. Die technische Idee hinter dem Produkt ist überzeugend. Fraglich ist allerdings, ob der mehrheitlich staatlich kontrollierte Rechtsdienstleister Juris auch ausreichend Maßnahmen getroffen hat, um personenbezogene Mandantendaten zu schützen und (anwaltliche) Verschwiegenheitspflichten zu achten.
Kritik kommt insbesondere vom CDU-Rechtspolitiker Martin Plum sowie von Prof. Dr. Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der TH Köln und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit. Beide monieren eine unzureichende Umsetzung datenschutzrechtlicher Vorgaben. Juris und das BMJ als zuständiges Ministerium betonen, dass die hochgeladenen Inhalte in sicheren deutschen Rechenzentren ohne Einbindung von Cloud-Diensten Dritter gespeichert werden und keine Einsichtnahme möglich sei. Die Verantwortung für die Einhaltung der Verschwiegenheitspflichten liege vertraglich allerdings bei den Nutzern, was Prof. Dr. Rolf Schwartmann kritisch sieht. Er fordert differenzierte Schutzkonzepte, da in der Praxis mit einer Menge hochgeladener Mandanteninformationen zu rechnen ist- und Juris dann als Verarbeiter von personenbezogenen Daten nach DSGVO ebenfalls dem technischen und organisatorischen Datenschutz verpflichtet wäre. Auch Martin Plum warnt in diesem Zusammenhang vor Haftungsrisiken und drängt das BMJ, bei dem halbstaatlichen Rechtsdienstleister für rechtlich klare Lösungen zu sorgen.
Die Diskussion zeigt, dass bei der Einführung digitaler Lösungen in der Rechtsbranche Vorsicht geboten ist. Es ist erfreulich, dass innovative Produkte wie „Juris Collect“ entwickelt werden, um die Arbeit von Anwaltskanzleien und Gerichten zu erleichtern. Dennoch dürfen Datenschutz und anwaltliches Berufsrecht dabei nicht unterschätzt werden. Anbieter und Anwender müssen sich der Tragweite von Datenuploads bewusst sein und entsprechende Vorkehrungen treffen. Es bleibt abzuwarten, ob Juris nun weitere technische oder organisatorische Anpassungen verkünden wird, um den geäußerten Zweifeln zu begegnen.
US-Justizministerium schlägt Monopol-Abhilfe vor
Wird Google Chrome zwangsverkauft?
66 Prozent Marktanteil bei Browsern und kein Ende in Sicht…oder? Nachdem ein US-Gericht Google im August für einen Suchmaschinen-Monopolisten und Googles Zahlungen an Browseranbieter & Co. in Höhe von 26 Milliarden Dollar für die Voreinstellung der Suchmaschine für wettbewerbswidrig erklärt hatte (Sec. 2 Sherman Act), schwenkt der Fokus zu den rechtlichen Konsequenzen. Das US-Justizministerium hat nun beim Gericht – ohne Bindungswirkung – u.a. den Zwangsverkauf von Googles Browser „Chrome“ angeregt. Das Betriebssystem „Android“ soll dagegen beim Konzern verbleiben können, wenn auch die Selbstbevorzugung und Voreinstellung von eigenen Dienstleistungen (inklusive Googles KI „Gemini“) enden muss.
Während sich manche zu Recht an das Microsoft-Verfahren in den Neunzigern erinnert fühlen, bleibt abzuwarten, ob die Entwicklungen in der EU ein Echo finden. Der Anfang des Jahres in Kraft getretene Digital Markets Act sieht ebenfalls die Möglichkeit eines Zwangsverkaufs vor. Die Ex-Kommissarin Vestager hatte einen solchen für das Werbegeschäft von Google zunächst in Betracht gezogen, sich dann aber auf verhaltensbezogene Maßnahmen beschränkt.
Darüber hinaus könnte der Effekt eines Verkaufs auch an der allmählichen Verschiebung der Suchgewohnheiten verpuffen: Immer mehr Menschen nutzen ChatGPT & Co. zur Abfrage von Wissen, während Instagram und TikTok den kreativen und beratenden Part übernehmen. Sollte Apple den Chrome-Browser aufkaufen, hätte man erneut einen großen Player auf zwei Märkten. Und OpenAI hätte sich bei einem Kauf vielleicht endgültig von anderen KIs abgesetzt.
Google spricht von „schwindelerregenden“ und „völlig übertriebenen“ Vorschlägen mit Folgen für Datensicherheit, Privatsphäre etc. und wird im Dezember ein eigenes Konzept vorlegen. Das für September 2025 erwartete Urteil wird dann das größte solche Verfahren in jüngerer Zeit jedenfalls erstinstanzlich zu einem Ende bringen.
Leitlinien voraus – Wie der AI Act Gestalt annimmt
Vom Verordnungstext zur Praxis – Herausforderungen bei der Operationalisierung des EU AI Acts und wie die EU-Kommission Abhilfe leistet
Juli 2024: Der finale Text des European AI Acts wird im Amtsblatt der EU veröffentlicht – ein Meilenstein, aber die Ziellinie ist noch lange nicht erreicht. Im Gegenteil: Die eigentliche Herausforderung beginnt erst jetzt. Mit der Veröffentlichung bleiben viele Fragen offen, vor allem zur praktischen Umsetzung. Antworten und Orientierung will die EU-Kommission in den kommenden Monaten mit Leitlinien geben – der nächste entscheidende Schritt in Richtung Operationalisierung. Das muss sie auch, denn in weniger als zwei Monaten werden die ersten Bestimmungen rechtsverbindlich – und zentrale Fragen bleiben weiterhin unbeantwortet, darunter die grundlegende für den sachlichen Anwendungsbereich: Was ist ein KI-System im Sinne der VO?
I. Der EU AI Act – Ein umfassender Rechtsrahmen für Künstliche Intelligenz
180 Erwägungsgründe und 113 Artikel – der AI Act ist nicht nur ein juristisches Schwergewicht, sondern auch ein globales Novum: die weltweit erste umfassende Regulierung für Künstliche Intelligenz. Bereits der erste Erwägungsgrund offenbart die Zielrichtung: Der Europäische Verordnungsgeber will den Binnenmarkt durch klare Regeln stärken und zugleich die Grundrechte schützen (Erwägungsgrund 1, Art. 1 Abs. 1). Die Botschaft ist unmissverständlich: Nicht der Mensch soll der KI dienen, sondern die KI dem Menschen. Ein Leitgedanke, der den Kern dieser Regulierung bildet.
Der AI Act setzt ein klares Signal: Keine Überregulierung, sondern gezielte Maßnahmen.. Statt pauschaler Vorgaben folgt die Verordnung einem risikobasierten Ansatz. Auf dieser Grundlage kann jedes KI-System in eine von drei Kategorien eingeordnet werden. Zu unterscheiden ist dabei zwischen verbotenen Anwendungen (Art. 5), hoch-risiko Systemen (Anhang III) und Systemen mit geringem Risiko (Art. 50).
Die Zielrichtung dieses Konzepts ist klar: Risiken begrenzen und Innovation ermöglichen. Die Pflichten steigen mit der Risikoklasse: Geringes Risiko, etwa bei Chatbots, erfordert nur die Einhaltung grundlegender Transparenzpflichten. Hochrisiko-Systeme, hierzu gehören u.a. sämtliche Anwendungsfälle, die in Anhang III genannt werden, müssen strikte Anforderungen an das Risikomanagement erfüllen. Verbotene KI-Systeme dürfen hingegen gar nicht auf den Europäischen Binnenmarkt gelangen. Kurz vor Schluss einigten sich die EU-Verhandlungsführer auf eine zusätzliche Risikoklasse: Die Regulierung von “General Purpose AI Models” (GPAI) wie etwa GPT-4.0, Art. 51 ff.. Anbieter solcher Modelle stehen ebenfalls vor weitreichenden Pflichten, darunter die transparente Offenlegung der Datensätze, mit denen ihre KI-Systeme trainiert wurden.
Das Prinzip der Verhältnismäßigkeit spiegelt sich auch im gestaffelten Inkrafttreten wider, um die Industrie nicht zu überfordern: Bereits im Februar 2025 werden die Verbotstatbestände (Art. 5) rechtsverbindlich. Ab August 2025 folgt mit einigen Ausnahmen die Durchsetzung der GPAI-Regulierung (Art. 52). Wiederum ein Jahr später, im August 2026, treten die übrigen Bestimmungen in Kraft, darunter die Hochrisiko-Anforderungen (Anhang III, Art. 8 ff.) und die Regelungen zu einfachen Transparenzpflichten, Art. 50. Die Rechtsgrundlage für das Inkrafttreten der Bestimmungen ist Art. 113.
II. Von der Theorie zur Praxis: Leitlinien als Schlüssel zur Operationalisierung des EU AI Acts
Zentrale Fragen bleiben offen. Die Operationalisierung des EU AI Acts stellt Betroffene vor erhebliche Herausforderungen: Wie lassen sich abstrakte Vorgaben praktisch umsetzen? Was verbirgt sich hinter einigen unbestimmten Rechtsbegriffen, die Zweifel an der Bestimmtheit aufkommen lassen? Was ist die Erwartungshaltung des Regulators?
Auch der Verordnungsgeber erkennt, dass der Verordnungstext allein nicht ausreicht, um den Verpflichteten klare Handlungsanweisungen zu geben. In Art. 99 kündigt die Kommission daher an, strittige und vage formulierte Bestimmungen durch Leitlinien zu präzisieren – ein Schritt, der angesichts der bestehenden Unklarheiten dringend erforderlich ist, wie die nachfolgenden Beispiele zeigen.
Herausforderung 1: Was sind “KI-Systeme” im Sinne des Acts? Was nach einem schlechten Witz klingt, ist bittere Realität: Wer hofft, dass Erwägungsgrund 12 eine präzise Subsumption ermöglicht, wird enttäuscht. Eine genaue Analyse zeigt, dass die Merkmale ebenso auf herkömmliche Software wie auf KI-Systeme zutreffen können. Ein umfassendes Begriffsverständnis einzuführen, wäre jedoch keine Lösung – das wäre der erste Schritt in Richtung Überregulierung. Der AI Act will “KI” regulieren, nicht “traditionelle Software”. Hieran sollte sich die Kommission auch halten.
Demnach bleibt zunächst die Unsicherheit: Betroffene wissen oft nicht, ob sie unter den Anwendungsbereich fallen. Die Kommission hat jedoch reagiert. In Art. 96 Abs. 1 lit. f kündigt sie Leitlinien zur Klärung an und hat dazu bereits ein Konsultationsverfahrengestartet. Das ist richtig und wichtig: Denn Europa braucht eine präzise Definition und Klarheit, was den sachlichen Anwendungsbereich betrifft, um den Europäischen Standort und die Europäische Wettbewerbsfähigkeit zu schützen.
Herausforderung 2: Unzureichende Bestimmtheit der Verbotstatbestände. Die Unschärfe des EU AI Acts setzt sich fort – insbesondere in Art. 5, der die gesetzlichen Verbote regelt. Hier finden sich zahlreiche unbestimmte Rechtsbegriffe, die Raum für Interpretationen lassen. Was bedeutet etwa „Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person“ (Art. 5 Abs. 1 lit. a)?
Ein weiteres Beispiel ist das Verbot von KI-Systemen zur „Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen“ (Art. 5 Abs. 1 lit. f). Der Wortlaut scheint weitreichend: Jegliche Emotionserkennungssysteme an solchen Orten wären verboten, sofern sie sich gegen natürliche Personen richten. Doch Erwägungsgrund 44 relativiert dies, indem er das „Machtungleichgewicht“ als maßgebliches Kriterium nennt – etwa zwischen Arbeitgeber und Arbeitnehmer oder Lehrkraft und Schüler. Daraus lässt sich schließen, dass das Verbot restriktiv auszulegen ist und nur solche Gruppen umfasst, die in einem Machtungleichgewicht stehen könnten. Dennoch bleibt der Beigeschmack, dass Tatbestand und Erwägungsgrund nicht deckungsgleich sind.
Auch hier naht Abhilfe: Die EU-Kommission hat Mitte November ein Konsultationsverfahren angekündigt, um Leitlinien zur Operationalisierung der Verbotstatbestände zu entwickeln. Diese sollen Anfang 2025 vorliegen – rechtzeitig, nur wenige Wochen bevor die Verbote in Kraft treten. Damit setzt die Kommission ihre Ankündigung aus Art. 96 Abs. 1 lit. b um.
III. Ausblick – Wegweiser für die Praxis: Die Bedeutung von Leitlinien im Jahr 2025
Der EU AI Act steht – doch seine volle Wirkung wird erst mit der Operationalisierung spürbar. In den kommenden Wochen und Monaten wird die EU-Kommission weitere Leitlinien veröffentlichen, die zentrale Themen präzisieren, die Auslegung für Rechtsberater erleichtern und den Weg für die praktische Umsetzung ebnen. Dabei geht es um weit mehr als die Definition von „KI-System“ oder die Klärung der Verbotstatbestände. Leitlinien zu Hochrisiko-Anforderungen, Transparenzpflichten und der GPAI-Regulierung werden von entscheidender Bedeutung sein.
Diese Leitlinien sind der Schlüssel, um den geschaffenen Rechtsrahmen in die Praxis zu übersetzen. Sie bieten unverzichtbare Orientierung für alle, die an der Umsetzung beteiligt sind – sei es in der Rechtsberatung oder in internen Compliance-Prozessen.
Der AI Act ist kein starres Regelwerk. Er markiert den Anfang eines dynamischen Prozesses, der noch viele Anpassungen und Interpretationen erfordern wird. Die Reise des EU AI Acts hat gerade erst begonnen – und wir bleiben gespannt, wohin sie führt. Das war sicherlich nicht das letzte Mal, dass dieses Thema im NLR auftaucht!
Digital Justice Summit 2024
Wie digital ist die Justiz?
In der vergangenen Woche fand der Digital Justice Summit am 25. und 26. November in Berlin im Hotel de Rome statt und brachte dabei Jurist:innen und Nichtjurist:innen aus Ministerien, Rechtsberatung, Justiz, Wissenschaft und der Digitalwirtschaftzusammen. In Vorträgen und Podiumsdiskussionen gaben die verschiedenen Akteur:innen Einblicke und Ausblicke hinsichtlich der Modernisierung des Rechtssystems, Automatisierungsprozesse in der Justiz und (mögliche) Veränderungen durch den Einsatz von Künstlicher Intelligenz.
Auch wir waren als Content-Partner auf der Messe vertreten, konnten mehr über uns erzählen und zukünftige Kooperationspartner finden. Zudem waren in einigen der Podiumsdiskussionen u.a. auch unser ehemaliger Vorstandsvorsitzender Paul Welter sowie Julian Albrecht, der maßgeblich an unseren Digital Justice Conferences beteiligt war, als Moderatoren auf den Bühnen zu sehen.
Auch im nächsten Jahr wird der Digital Justice Summit wieder stattfinden! Haltet euch schonmal den 24. und 25. November 2025 frei. Mehr Informationen sind unter https://www.digital-justice.de/de zu finden.
Zuletzt möchten wir noch darauf hinweisen, dass wir auf unserer Website einen Nachbericht verfasst haben, um mit euch zu teilen, was inhaltlich auf dem Digital Justice Summit besprochen wurde. Den Beitrag findet ihr hier.
Veranstaltungs-Tipp
recode.talks mit Frau Prof. Paulina Jo Pesch am 10.12.
Wir freuen uns am 10. Dezember Frau Prof. Paulina Jo Pesch in unserem recode.talks-Format begrüßen zu dürfen. Gemeinsam mit unserem Host David taucht sie tief in die Themen Blockchain, Kryptowährungen, Smart Contracts und KI-Systeme ein.
Frau Prof. Pesch wird dabei spannende Einblicke in ihre Arbeit als Juniorprofessoringeben und mit uns ihre Ansichten zu Digitalisierung, Datenschutz und künstlicher Intelligenz teilen.
Das Event findet am 10.12.2024 um 19 Uhr auf Zoom statt.
>Hier geht’s zur Veranstaltung
Meeting-ID: 850 6216 6505
Kenncode: 688842
Last Updated on 5. Dezember 2024