NewLawRadar 81/2025 – Justizcloud – AI Act in Korea – Character.ai – Blockchain

Editor’s Ramble #81

Liebe Leser:innen, in dieser Ausgabe haben wir wieder ganz viele interessante Themen rund um Legal Tech im Newsletter.

Heute Abend könnt ihr über Zoom das nächste recode.talks Event mit Marc Ohrendorf verfolgen! (Hier geht’s zur Veranstaltung)
Wir berichten über die Einführung der Justizcloud und skizzieren die Bedeutung im Rahmen der Digitalisierung der Justiz.
In Südkorea wurde ein AI Act verabschiedet. Wir berichten, u.a. aus rechtsvergleichender Perspektive, was der Gesetzesentwurf in Korea anders und besser macht als die EU.
Nachdem ein KI-Chatbot einem Kind zu einem Mord geraten hat, stellen sich jetzt vor einem amerikanischen Gericht Fragen der Produkthaftung für eine Künstliche Intelligenz.
Wir haben auch wieder einen Beitrag in der Kategorie Legal Tech Basics: Blockchain. Was verbirgt sich dahinter und wie sehen die Anwendungsfälle im Recht aus.
Die BRAK veröffentlich einen Leitfaden zur berufsrechtlichen Nutzung von KI.
Und die neue Future Ready Lawyers Studie von Wolters Kluwer ist online!

Wir haben auch noch zwei Veranstaltungstips: Das recode.talks Event und unser Event an der Brucerius Law School!

Redaktion: Dennis, FlorianJeremias, Jakob, Linus, MaxMounir und Friedrich.

Wir sind gespannt auf Eure Meinung! Wir freuen uns über eure Vorschläge und Feedback an radar@recode.law!

Justizcloud

Ein weiteres Puzzlestück in der „Digitalisierungsinitiative für die Justiz“

Die Justiz zieht in die Cloud! Ganz so weit ist es zwar noch nicht, die nächsten Schritte zur Modernisierung und Digitalisierung der Justiz gehen aber voran.

Bis Ende 2026 soll nun eine bundeseinheitliche Cloud-Lösung für die Nutzung in der Justiz geschaffen werden, wie die Justizminister von Bund und Ländern nach dem fünften Bund-Länder-Digitalgipfel bekannt gegeben haben.

Diese Lösung soll spürbare Verbesserungen sowohl in der Arbeit einzelner Gerichte als auch in der justiziellen Zusammenarbeit mit sich bringen. So können beispielsweise Anwendungen wie das sogenannte Ge­mein­sa­me Fach­ver­fah­ren für die Jus­tiz (GeFa) bundeseinheitlich (weiter-)entwickelt und ausgerollt werden. Auch Updates sollen schneller flächendeckend zur Verfügung stehen. Bisher geschieht dies dezentral auf Plattformen, die die Länder teils allein, teils in kleineren Kooperationen betreiben und unterhalten müssen. Eine bundeseinheitliche Lösung gab es bisher nicht.

In einem ersten Schritt soll nun unter anderem das länderübergreifende Registerfachverfahren (AuRegis) in die Cloud verlagert werden. In der Zukunft könnte aber beispielsweise auch eine gemeinsame Datenmanagement-Plattform errichtet werden, die den Austausch von Dokumenten erleichtert. Hierbei sollen auch andere Akteure der Rechtspflege, wie Anwält:innen und Notar:innen an das System angeschlossen werden. Möglicherweise gehört dann auch der Versand von umfangreichen PDFs über das besondere elektronische Anwaltspostfach (beA) der Vergangenheit an. Auch der Betrieb justizeigener KI-Anwendungen in der geschützten Umgebung der Justizcloud ist zukünftig denkbar.

Die Themen Datenschutz und IT-Sicherheit spielen bei der Schaffung einer solchen Justizcloud eine besondere Rolle. Die naturgemäß hochsensiblen Daten der Justiz sollen insofern weiterhin dezentral in den Rechenzentren der IT-Dienstleister der Justiz gespeichert bleiben. Die Cloud dient zur zugriffsbasierten Verknüpfung der verschiedenen Rechenzentren.

Das Projekt ist Teil der sogenannten „Digitalisierungsinitiative für die Justiz“, einer Kooperation zwischen Bund und Ländern. Wir hatten über weitere Projekte dieser Initiative bereits in früheren Ausgaben (beispielsweise 75/24 und 78/24) berichtet. Ein Überblick über die laufenden und geplanten Projekte findet sich auf dem Internetauftritt des Bundesjustizministeriums.

Auch wenn es bis zur endgültigen Umsetzung aller Projekte noch ein weiter Weg ist, so ist die Schaffung der Justizcloud doch als wichtiger Meilenstein zu begrüßen. Insbesondere die weitergehende Kooperation von Bund und Ländern und der Abbau föderalistischer Hürden und doppelter Systeme können dabei nur helfen, den Justizstandort Deutschland weiter zu modernisieren.

KI-Regulierungen global im Aufwind

Südkoreas AI Basic Act: Zentrale Bestimmungen im Spiegel des Europäischen AI Acts

Mit dem AI Basic Act, der auf den letzten Metern des Jahres 2024 verabschiedet wurde, erweitert Südkorea die globale Landschaft der KI-Regulierung. Das Gesetz orientiert sich in vielerlei Hinsicht am EU AI Act, setzt jedoch eigene Akzente. Ein Vergleich zeigt spannende Parallelen und Unterschiede, die Raum für rechtsvergleichende Analysen bieten.

I. Ziele der südkoreanischen KI-Regulierung 
Der Titel des Gesetzes – „Basic Act on the Development of Artificial Intelligence and the Establishment of Trust“, nachfolgend “AI Basic Act”, – vereint zwei zentrale Konzepte: die Förderung technologischer Entwicklung und den Aufbau von Vertrauen. Damit verfolgt Südkorea eine industriepolitische Strategie zur Stärkung des Wirtschaftsstandorts, basierend auf gesellschaftlicher Akzeptanz und verantwortungsvollem Umgang mit KI.
Das Ministerium für Wissenschaft, Informations- und Kommunikationstechnik ist industriepolitischer Taktgeber und legt alle drei Jahre Strategiepläne zur Stärkung des nationalen KI-Sektors vor. Das Gesetz schafft zudem die Grundlage für gezielte Startup-Förderung und setzt klare rechtliche Leitplanken für eine verantwortungsvolle und sichere Nutzung von KI.

II. Die Regelungsstruktur des AI Basic Acts 
Der südkoreanische AI Basic Act setzt auf eine zweistufige Regulierungsstruktur, die zwischen „High-Impact AI“ und „Generative AI“ unterscheidet. „High-Impact AI“ umfasst Anwendungen, die Leib, Leben oder Grundrechte erheblich beeinflussen können, während „Generative AI“ durch die Fähigkeit definiert ist, Inhalte wie Texte, Bilder oder Audio auf Basis von Prompts zu erstellen.
Im Vergleich dazu verfolgt der EU AI Act einen differenzierteren Ansatz mit vier Regulierungsstufen. Diese Granularität erlaubt eine präzisere Zuordnung von Risiken, während der südkoreanische Ansatz einfacher, aber auch weniger spezifisch bleibt. Unklar bleibt, welche konkreten Anwendungsfälle der südkoreanische Gesetzgeber als „High-Impact AI“ einstuft. Es liegt jedoch nahe, dass er sich an den „Hoch-Risiko-Systemen“ im EU AI Act (Art. 6 i. V. m. Anhang III) orientiert.

III. Rechtspflichten unter dem AI Basic Act – Schnittmengen zum EU AI Act
Der südkoreanische AI Basic Act definiert in den Artikeln 31 bis 36 wesentliche Pflichten. Dabei unterscheidet er zwischen Transparenzpflichten, allgemeinen Sorgfaltspflichten und Organisationspflichten. Die inhaltliche Nähe zum EU AI Act bietet eine spannende Grundlage für rechtsvergleichende Analysen.
1. Transparenzpflichten
Transparenzpflichten fördern Vertrauen in KI-Systeme, indem sie Nachvollziehbarkeit gewährleisten – besonders bei „High-Impact AI“ mit erheblichen Auswirkungen auf Leben, Rechte oder wirtschaftliche Chancen. Artikel 31 des südkoreanischen AI Basic Acts fordert hierzu eine klare Transparenzerklärung, z. B. bei KI-gestützten Kreditprüfungen. Die Regelungen erstrecken sich auch auf generative KI, um die Trennung von Realität und Fiktion sicherzustellen. Parallelen finden sich in der EU-Verordnung, etwa in den Artikeln 50 und 86, die Betroffenen weitgehende Informationsrechte gewähren.
2. Sorgfaltspflichten
Sorgfaltspflichten minimieren Risiken und stärken die Sicherheit bei „High-Impact AI“. Artikel 34 des südkoreanischen Gesetzes fordert Risikomanagementstrategien, „Explainable AI“ und menschliche Aufsicht – zentrale Ansätze, die auch der EU AI Act aufgreift. Ein „Impact Assessment“ gemäß Artikel 35 sichert zudem die Grundrechtsfolgenabschätzung vor Markteinführung; eine ähnliche Notwendigkeit definiert Artikel 27 KI-VO.
3. Organisationspflichten
Um Zurechenbarkeit zu gewährleisten, verlangt Artikel 36 des AI Basic Acts von ausländischen Unternehmen, lokale Repräsentanten zu benennen. Diese tragen die Verantwortung für die Einhaltung aller regulatorischen Vorgaben und stehen für Rückfragen zur Verfügung. Die Rolle des “lokalen Repräsentanten” könnte Ähnlichkeiten zum “Bevollmächtigten” im Sinne des Artikels 22 KI-VO haben.

IV. Schlussfolgerung 
Der Vergleich offenbart klare Schnittmengen zwischen dem südkoreanischen AI Basic Act, der voraussichtlich im Januar 2026 in Kraft tritt, und dem EU AI Act. Beide setzen auf Transparenz, Sorgfalt und Organisation, um den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten.
Insbesondere die Verpflichtung zu Risikomanagement, menschlicher Aufsicht und Transparenz zeigen eine wachsende Konvergenz. Diese gemeinsamen Prinzipien markieren den Weg hin zu globalen Standards in der KI-Regulierung. Ein deutlicher Unterschied zeigt sich im Sanktionsregime. Bei Verstößen gegen den AI Basic Act drohen Strafen von bis zu 30 Millionen Südkoreanischen Won, etwa 20.000 EUR. Im Vergleich dazu sieht der EU AI Act nach Artikel 99 Abs. 3 Strafen von bis zu 35 Millionen EUR oder 7 % des weltweiten Jahresumsatzes vor – ein ungleich schärferer Ansatz. Der europäische Rechtsrahmen agiert hier als „Tiger mit scharfen Zähnen“, während die südkoreanische Drohkulisse deutlich milder ausfällt.
Ob der südkoreanische Ansatz leistungsfähige KI-Modelle einschließt, bleibt unklar. Während die EU Anbietern von „General Purpose AI Models“ in Artikel 51 ff. KI-VO spezifische Pflichten auferlegt, lässt das südkoreanische Gesetz offen, ob es eine vergleichbare Regulierung solcher Modelle vorsieht.
Südkoreas AI Basic Act ähnelt der europäischen KI-VO, setzt jedoch eigene Akzente und greift weniger in unternehmerische Freiheiten ein. Sollte sich dieser Ansatz als ebenso effektiv erweisen, könnte er die Frage aufwerfen, ob er nicht das bessere Modell ist.

Ein KI-Chatbot, der Mord empfiehlt

Der Fall Character.ai und die Zukunft der KI-Produkthaftung

Während in der Europäischen Union die zweijährige Umsetzungsfrist der am 8. Dezember 2024 in Kraft getretenen neuen Produkthaftungsrichtlinie zu laufen beginnt, liefert ein Fall aus Texas in den USA ein eindrückliches Beispiel für die Notwendigkeit klarer Produkthaftungsregelungen für KI-Produkte. Auf Klage zweier Elternpaare hat der United States District Court Eastern District of Texas Marshall Division seit dem 9. Dezember 2024 den Fall des siebzehnjährigen J.F. und der neunjährigen B.R. zu verhandeln. Gerichtet ist die Klage gegen den Chatbot-Anbieter Character.ai (C.AI) und Google als an der Entwicklung beteiligtes Unternehmen.

C.AI ist eine KI-Plattform, die es den bis dato etwa 20 Millionen Nutzern ermöglicht, auf einer Chat-Oberfläche mit virtuellen Charakteren zu interagieren. Die Bandbreite an Charakteren reicht von einem künstlichen Albert Einstein bis hin zu Gruppenchats mit wild zusammengewürfelten Fantasiefiguren.
Gemeinsam haben alle Charaktere die zugrundeliegende Large-Language-Model-Technologie, die ähnlich wie eine auf Persönlichkeitsmerkmale abgestimmte und mit Erinnerung versehene Version von ChatGPT Gespräche und Charaktermerkmale simuliert. Nicht nur auf einer moralischen Ebene bedenklich wird es jedenfalls, wenn solche KI-Charaktere beginnen, prägenden Einfluss auf das Leben von Nutzern und insbesondere Jugendlichen zu nehmen.

Zu dieser erschreckenden Erkenntnis kamen die Eltern des heute siebzehnjährigen J.F., der im April 2023 ohne Erlaubnis seiner Eltern begann, C.AI zu nutzen. Die App war damals im Apple Store mit der Altersfreigabe “12+” aufgeführt. Nach Darstellung in der Klageschrift veränderte sich das Sozialverhalten des mit Autismus diagnostizierten Jungen seitdem grundlegend. J.F. wurde zusehends gewalttätig im Umgang mit seiner Familie und isolierte sich vollständig.
Als seine Eltern schließlich das Handy ihres Sohnes durchsuchten, stießen sie auf Nachrichten und Chats, die zeigten, dass die KI-Charaktere von C.AI nicht nur Selbstverletzungen verharmlost und angeregt, sondern sogar aktiv zur Gewalt gegenüber den Eltern aufgerufen hatten.

Besonders schockierend: Ein KI-Charakter stellte gegenüber J.F. Mord als angemessene Reaktion auf die elterliche Bildschirmzeitpolitik dar. Diese Vorfälle, die auch sexuelle Übergriffigkeit (so insbesondere der Fall B.R.) und die Anstiftung zu selbstschädigendem Verhalten umfassen, sind Gegenstand der Klage, die C.AI vorwirft, ohne Rücksicht auf Verbraucherschutzvorgaben die Nutzungsdauer hochgetrieben und eine hochkritische Technologie ohne ausreichende Sicherheitsvorkehrungen, Moderationsmechanismen und Warnhinweise auf den Markt gebracht zu haben.

Vor deutschen Gerichten wäre bei einem ähnlich gelagerten Fall insbesondere die Frage der verschuldensunabhängigen Haftung nach dem Produkthaftungsgesetz und die Verteilung der Beweislast zwischen den Parteien interessant. Außerdem wäre fraglich, inwiefern psychische Schäden im ProdHaftG Abbildung finden. Grundsätzlich sieht das ProdHaftG vor, dass der Hersteller für Fehler seines Produkts haftet, die zu Schäden an Leben, Körper oder Gesundheit führen. Im Kontext von KI-Produkten könnte dies bedeuten, dass die Betreiber von Plattformen wie C.AI für die Schäden haften, die durch ihre Algorithmen verursacht werden. Das ursprüngliche, am 15. Dezember 1989 in Kraft getretene ProdHaftG zeigte allerdings gerade im Kontext neuer Technologien an einigen Stellen Unschärfe. Abhilfe schaffen soll nun die neue Produkthaftungsrichtlinie, die nicht nur klarstellt, dass das ProdHaftG auf KI-Produkte anwendbar ist, sondern auch eine erweiterte Beweislastumkehr für Verbraucher vorsieht. Ebenso wird in Artikel 6 Abs. 1 lit. a) der neuen RL (EU) 2024/2853 klargestellt, dass auch medizinisch anerkannte psychische Schäden ersatzfähig sind. Geschädigten wie der Familie von J.F. wir die Durchsetzung von Ansprüchen gegen Unternehmen wie C.AI. mit diesen Änderungen erheblich erleichtert.

Status zum integrierten Bachelor

Auch Sachsen-Anhalt und Konstanz auf dem Weg zum integrierten Bachelor of Laws

Weiter geht es mit der Einführung des integrierten Bachelors: Die Universität Konstanzführt zum Wintersemester 2025/26 den integrierten Bachelor ein. Dazu plant Sachsen-Anhalt eine Novellierung des Juristenausbildungsgesetzes Sachsen-Anhalt. Ein entsprechender Gesetzesentwurf soll noch im Frühjahr fertiggestellt und anschließend im Landtag eingebracht werden. Nachdem zuletzt Hessen, NRW und einigen Universitäten den Schritt gewagt haben, wird der Abschluss in der Justizausbildung an weiteren Universitäten eingeführt.

Legal Tech Basics

Blockchain Technologie: Funktionsweisen, Validierung und juristische Anwendung

Die Blockchain-Technologie hat sich in den letzten Jahren als eine der vielversprechendsten Innovationen für eine Vielzahl von Anwendungsbereichen etabliert. Besonders im juristischen Bereich bietet sie Potenzial, Prozesse effizienter, transparenter und manipulationssicher zu gestalten.

Grundlagen der Blockchain Technologie

Eine Blockchain ist eine dezentralisierte, manipulationssichere Datenbank, die aus einer Kette von Blöcken besteht. Jeder Block enthält:

  • Transaktionsdaten, die alle digitalen Interaktionen beschreiben.

  • Einen kryptografischen Hash, der die Daten absichert. Dieser Hash ist eine eindeutige, kryptografische Zeichenfolge, die einen Block und seine Daten repräsentiert.

  • Zudem den Hash des vorherigen Blocks, um die Integrität und Unveränderlichkeit der Kette zu gewährleisten.

Die Verteilung auf ein Netzwerk von Computern bzw. Knotenpunkten (Nodes) sorgt dafür, dass keine zentrale Kontrollinstanz benötigt wird, was die Blockchain besonders transparent und sicher macht. Jeder dieser Knotenpunkte besitzt eine Kopie der gesamten Blockchain und ist aktiv an der Validierung von Transaktionen und der Erstellung neuer Blöcke beteiligt. Sobald ein neuer Block erstellt wird, müssen alle Teilnehmer des Netzwerks durch Konsensmechanismen validieren, dass die enthaltenen Daten in dem neuen Block korrekt sind.

Konsensmechanismen zur Validierung der Datenintegrität

Konsensmechanismen sind zentrale Bausteine einer Blockchain und stellen sicher, dass alle Teilnehmer die gleichen Daten anerkennen und garantieren die Sicherheit der Kette. Die beiden am häufigsten genutzten Verfahren sind dabei Proof of Work und Proof of Stake.

1. Proof of Work (PoW)

Proof of Work ist der älteste und bekannteste Konsensmechanismus, der beispielsweise bei Bitcoin verwendet wird. Teilnehmer (Miner) lösen komplexe mathematische Rätsel, um Transaktionen zu validieren und neue Blöcke zur Blockchain hinzuzufügen. Dieser Prozess ist sehr sicher, aber auch ressourcenintensiv. PoW bietet besonders hohe Sicherheit und Widerstandsfähigkeit gegen Angriffe, leidet aber an hohem Energieverbrauch und einer langsameren Transaktionsverarbeitung

2. Proof of Stake (PoS)

Proof of Stake wurde als energieeffizientere Alternative zu PoW entwickelt. Validatoren hinterlegen eine bestimmte Menge an Kryptowährung (Stake), um Transaktionen zu überprüfen. Je größer der Stake, desto höher die Wahrscheinlichkeit, einen Block zu validieren. Eine prominentes Beispiel einer Chain mit PoS Validierung ist Ethereum 2.0. Während PoS die Transaktionen energieeffizienter und die Transaktionen schneller ausführbar macht, bietet der Mechanismus das Risiko von Machtkonzentration bei wenigen großen Stakeholdern.

Smart Contracts: Automatisierte Vertragsabwicklung

Smart Contracts sind eines der revolutionärsten Elemente der Blockchain-Technologie. Sie ermöglichen es, Verträge zu automatisieren und Prozesse effizienter zu gestalten, ohne dass eine zentrale Autorität oder ein Vermittler benötigt wird. Sie enthalten Vertragsbedingungen in Form von Code und führen diese automatisch aus, sobald vordefinierte Bedingungen erfüllt sind. Ein klassisches Beispiel ist die automatische Freigabe einer Zahlung bei Lieferung eines Produkts. Dies bringt den Vorteil, dass Verträge nicht nur ohne menschliches Eingreifen ausgeführt werden können, sondern dass einmal gespeicherte Verträge im Grunde auch unveränderlich sind und die Transaktionskosten durch den Wegfall von Vermittlern reduziert werden.

Problematisch kann aber die rechtliche Behandlung sein, insb. die Haftungsfragen bei durch fehlerhafte Programmierung eintretenden Folgen. Außerdem kann sich die Integration in bereits  bestehende Systeme als komplex darstellen.

Durch Entwicklungen wie Oracles (Integration externer Daten), Blockchain-übergreifende Funktionalität und die Einbindung rechtlicher Standards könnten Smart Contracts in vielen Bereichen zum Standard werden. Dadurch haben Smart Contracts das Potenzial, Verträge effizienter, sicherer und günstiger zu machen. Allerdings müssen rechtliche und technische Hürden überwunden werden, damit sie ihr volles Potenzial entfalten können.

Juristische Anwendungen der Blockchain

Die Blockchain-Technologie eröffnet diverse Anwendungsmöglichkeiten im rechtlichen Bereich.

Beweissicherung: Blockchain-basierte Systeme ermöglichen es, Dokumente, Verträge oder Testamente manipulationssicher zu speichern. Die kryptografischen Zeitstempel könnten als fälschungssichere Beweise in Gerichtsverfahren dienen.

Nachlassverwaltung: Smart Contracts können die Nachlassverwaltung automatisieren. Nach dem Tod des Erblassers könnten Vermögenswerte gemäß den festgelegten Bedingungen verteilt werden, ohne dass ein Notar eingeschaltet werden muss.

Immobilien- und Grundbuchverwaltung: Die Blockchain kann als manipulationssicheres Grundbuch dienen. Transaktionen wie Eigentumsübertragungen könnten vollständig digital und transparent abgewickelt werden.

Streitbeilegung: Blockchain-basierte Schiedsverfahren könnten Streitigkeiten automatisiert und effizient lösen. Dies wäre besonders in internationalen Handelsstreitigkeiten von Vorteil, wo traditionelle Verfahren oft teuer und zeitaufwendig sind.

Supply-Chain-Management: In der Lieferkette könnten Smart Contracts automatisch Zahlungen freigeben, wenn die vereinbarten Bedingungen, wie die rechtzeitige Lieferung, erfüllt sind.

Festzuhalten bleibt, dass Blockchain ein enormes Potenzial für Effizienzsteigerungen, Transparenz und Sicherheit in juristischen Anwendungen bietet. Insbesondere Smart Contracts und manipulationssichere Transaktionssysteme können traditionelle Prozesse revolutionieren. Gleichzeitig bedarf es jedoch einer sorgfältigen Integration in bestehende rechtliche Rahmenwerke, um Herausforderungen wie Rechtsgültigkeit, Haftung und Interoperabilität zu adressieren.

Mit der richtigen rechtlichen und regulatorischen Unterstützung kann Blockchain aber dazu beitragen, das Rechtssystem zukunftsfähig zu machen und auch den Zugang zum Recht zu verbessern.

BRAK veröffentlicht Leitfaden

Berufsrechtliche Anforderungen an KI-Nutzung

Sowohl allgemeine als auch spezifisch juristische Künstliche Intelligenzen (KI) sind mittlerweile auch im Kanzleialltag angekommen. Die Bundesrechtsanwaltskammer (BRAK) hat Anfang Januar daher einen Leitfaden zur Anwendung von KI in Anwaltskanzleien veröffentlicht. Im Fokus liegt dabei insbesondere das Risiko von Halluzinationen und Bias in Sprachmodellen wie ChatGPT. Nach dem Leitfaden seien dabei – abseits von UWG, UrhG und ab gewissem Automatisierungsgrad anderen Besteuerungen und Versicherungsdeckungslücken – insbesondere die §§ 43, 43a II BRAO und die KI-VO zu beachten.

Der Grundsatz der höchstpersönlichen Leistungserbringung (§§ 43 S. 1 BRAO, 613 BGB) besage, dass zumindest eine „eigenverantwortliche Überprüfung und Endkontrolle“ der generierten Inhalte erfolgen muss. Bei der Nutzung gegenüber Mandanten müsse klar bleiben, dass eine Einzelfallprüfung und -beratung geschehe. Aus den Ausführungen ergibt sich aber auch, dass eine anwaltliche Nutzungspflicht aus § 5 BORA aktuell fast nur bei der Bearbeitung von Massenverfahren in Betracht kommt.

Die BRAK hält aufgrund der strafbewehrten Verschwiegenheitspflicht (§§ 43a II 2, 43e BRAO, 2 BORA iVm DSGVO) im Ergebnis mandatsbezogene Prompts und Dokumentenuploads nur im Ausnahmefall für möglich. Dienstleister wie ChatGPT dürften nur auf Basis eines in Textform geschlossenen und mit gewissen gesetzlichen Mindestinhalten gefüllten Vertrags und eines „Need-to-know“-Prinzips einbezogen werden. Dies schließe den Zugang zu Mandatsgeheimnissen in der Praxis aus. Nach den Ausführungen der BRAK erzwingt das geforderte Schutzniveau praktisch Serverstandorte in der EU.

In Kanzleien fordere Art. 4, 3 Nr. 4, Nr. 56 KI-VO ab Anfang Februar insbesondere Mitarbeiteranweisungen und -schulungen und im Einzelfall ein Risikomanagementsystem den Aufbau ausreichender Kompetenzen im Umgang mit KI. Ab 2.8.2026 kommt nach Art. 50 I, II, V, 3 Nr. 3 KI-VO die Kennzeichnung intern entwickelter Interaktionssysteme wie Chatbots und deren Outputs hinzu. Überprüfte Texte wie Blogbeiträge o.ä. fielen nicht hierunter.

Sowohl die rechtspolitische als auch die fachliterarische Diskussion zum „KI-Anwalt“ bleibt dynamisch, Fixpunkte aus der Rechtsprechung fehlen bisher. Ob andere Regularien wie in Singapur oder Illinois (USA) effektiver sind oder Wechselwirkungen entstehen, bleibt abzuwarten.

Wolters Kluwer Future Ready Lawyer Studie 2024

Jurist:innen begegnen dem KI-getriebenen Wandel im Rechtsmarkt mit Zuversicht

Wolters Kluwer, weltweit führender Anbieter von Fachinformationen, Software und Services, hat die Ergebnisse seiner globalen Studie „Future Ready Lawyer 2024“ veröffentlicht. Sie bieten federführende Erkenntnisse aus der Befragung von 700 Jurist:innen in Kanzleien und Rechtsabteilungen in den USA und neun europäischen Ländern.
Die diesjährigen Ergebnisse zeigen einen Markt im Umbruch, der bestrebt ist, mit neuen Technologien, einer sich schnell entwickelnden Regulierungslandschaft und neuen Anforderungen an juristisches Personal Schritt zu halten, während gleichzeitig analysiert wird, wie generative KI (GenAI) und andere innovative Technologien die Transformation traditioneller Geschäftspraktiken beschleunigen können.

Mehr findet ihr hier.

Veranstaltungs-Tipp

Wie arbeiten Jurist:innen in der Zukunft? – Wie Legal Tech und KI die juristische Arbeit verändern

Gemeinsame Veranstaltung von recode.law und dem Bucerius Center for Legal Technology and Data Science am Dienstag, 21.01.2025, 18:30 Uhr in der Bucerius Law School, Raum 1.15.

Wie verändern Legal Tech und künstliche Intelligenz juristisches Arbeiten – und was bedeutet das für dich als angehende Jurist:in? Im Rahmen einer Podiumsdiskussion beleuchten wir die Chancen, Herausforderungen und praktischen Auswirkungen, die der technologische Wandel für die juristische Praxis mit sich bringt.

Als Referent:innen sind dabei: Dr. Jan Wildhirth, Managing Director, Fieldfisher X, Bernadette Kell, Leitung Innovation Hub, Bundesministerium der Justiz, Prof. Dr. Ralf Peter Anders, Leitender Oberstaatsanwalt, Staatsanwaltschaft Hamburg und Prof. Dr. Britta Rehder, Professur für Politikwissenschaften, Ruhr-Universität Bochum.

Erhalte einen Überblick über die wichtigsten Entwicklungen und konkrete Tipps, wie du dich schon heute auf die Arbeit in einer digitalisierten

Rechtswelt vorbereiten kannst – und genieße dabei leckere Pizza!

Anmeldung unter diesem Link.

Veranstaltungs-Tipp

Heute Abend: Recode.talks mit Marc Ohrendorf!

Wir freuen uns riesig, euch einen echten Experten und spannenden Gesprächspartner vorzustellen: Marc Ohrendorf, LL.M. heute Abend (15.01. um 19 Uhr) auf Zoom.

Taucht mit uns in die spannende Welt der Digitalisierung im Rechtsmarkt ein! Marc Ohrendorf, Direktor am Bucerius Center on the Legal Profession, Director Business Development am Institut für Wissen und Wirtschaft und Host des beliebten Podcasts „Irgendwas mit Recht – Jura Karrierepodcast“, wird uns mit auf eine inspirierende Reise nehmen.

Was erwartet euch?
– Einblicke in den beeindruckenden Werdegang und die aktuelle Arbeit von Marc Ohrendorf.
– Entwicklungen und Trends auf dem Rechtsmarkt – Wie beeinflusst die Digitalisierung unsere Branche?
Chancen und Herausforderungen im digitalen Wandel.
– Ideen und Impulse zur Weiterentwicklung der juristischen Ausbildung.

Die Diskussion könnt ihr aktiv mitgestalten! Nutzt die Gelegenheit, eure Fragen direkt an Herrn Ohrendorf zu richten und spannende Einblicke zu gewinnen!

> Hier geht’s zum Zoom Meeting

(Meeting-ID: 838 8825 337 Kenncode: 336007)

Last Updated on 15. Januar 2025