Editor’s Ramble #64
Wir freuen uns, euch mitteilen zu können, dass unser Newsletter ab sofort einmal monatlich erscheint. Durch diese Änderung können wir euch mehr Tiefe und Qualität garantieren. Jeder Newsletter wird sorgfältig geplant, recherchiert und gestaltet, um euch eine umfangreichere Berichterstattung und gründliche Analysen zu bieten.
In der heutigen Ausgabe unseres Newsletters werfen wir einen Blick auf den kürzlich verabschiedeten “AI Act” des Europäischen Parlaments. Der Weg für den Trilog ist frei, um das Gesetz final zu gestalten und umzusetzen. Es gibt weiterhin Bedenken bezüglich möglicher Vor- und Nachteile sowie Risiken, während auf der anderen Seite eine wachsende Forderung nach einer einheitlichen Regulierung und die Möglichkeit von “Reallaboren” zur Förderung der KI-Entwicklung besteht.
Im Bereich des Urheberrechts und künstlicher Intelligenz stellen sich komplexe Fragen bezüglich der Haftung und Schadensersatzansprüche. Die Verantwortung liegt dabei sowohl bei den Unternehmen, die die KI-Technologie entwickeln, als auch bei den Nutzern, die sie einsetzen. Die Durchsetzung von Ansprüchen gestaltet sich schwierig, und es besteht die Notwendigkeit, Mechanismen wie Quellenangaben und Verwertungsgesellschaften einzuführen, um die Interessen der Urheber zu schützen.
In einem neuen Thomson Reuters Report werden die sich wandelnden Einstellungen zur Nutzung von generativer KI und ChatGPT in Anwaltskanzleien diskutiert. Eine kürzlich durchgeführte Umfrage zeigt, dass die Meinungen über den Einsatz dieser Technologien in der Rechtsbranche stark divergieren. Während einige die potenziellen Veränderungen und Vorteile sehen, betonen andere die unbekannten Risiken und die Notwendigkeit, Vorsichtsmaßnahmen zu ergreifen. Ein Fall aus den USA verdeutlicht die Bedeutung der menschlichen Verantwortlichkeit und Sorgfalt im Umgang mit künstlicher Intelligenz.
Wir sind gespannt auf eure Meinung! Euer Feedback zu unseren Inhalten ist uns äußerst wichtig, und wir freuen uns über eure Vorschläge. Schickt uns einfach eine E-Mail an radar@recode.law und teilt uns mit, was ihr denkt. Wir sind dankbar für jede Rückmeldung!
Gionatan, Nils, Friedrich, Johanna, Max, Julius und Valerie
AI Act
AI Act – Fluch oder Segen?
Das Europäische Parlament hat am 14. Juni den “AI Act” angenommen und somit ist der Weg für den Trilog frei, indem über die Finalisierung und Umsetzung des Gesetzes beraten wird. Erst nachdem sich das Parlament, der Rat und die Kommission auf einen Kompromiss geeinigt haben, kann der “AI Act” in geltendes Recht erstarken. Bis das Gesetz also tatsächlich kommt, wird es wohl noch etwas dauern.
Es wurde bereits viel über den Act diskutiert und Vor- sowie Nachteile oder Risiken aufgezeigt.
Das Contra Lager befürchtet vor allem einen Schaden in der Wirtschaft, denn eine “Überregulierung” von Innovation wird stets als gefährlich erachtet. Hinzu kommen auch die Sorgen um die Kosten der Regelkonformität und letztendlich würde Europa somit durch den “AI Act” einen negativen Standortfaktor erhalten.
Des Weiteren werden die vagen und unpräzisen Definitionen “hohes Risiko” und welche Software unter “Künstliche Intelligenz” fällt, kritisiert. Durch unklare Begriffe entsteht eine Unsicherheit, die vor allem Start-ups und Unternehmen vor dem Standort EU abschrecken könnten oder zu einer verminderten Nutzung von KI führen könnte.
Auf der anderen Seite wird auch der Wunsch nach einer einheitlichen Regulierung in Europa stärker und für die Bedenken der Überregulierung beinhaltet der “AI Act” die Möglichkeit der Entwicklung von KI in sogenannten “Sandboxes” oder “Reallaboren”. In diesen werden KI-Entwicklungen eng von den Behörden betreut und müssen dann gegebenenfalls nicht alle Grenzen des Acts einhalten. Sobald eine KI-Entwicklung dann aber auf den Markt kommen soll, müssen die Bestimmungen der Grenzen wieder eingehalten werden. Somit werden die “Reallabore” nur als Forschungsförderung angesehen, jedoch ungeeignet für die Privatwirtschaft.
Status Quo und Ausblick
Entschädigung von Künstler aufgrund künstlicher Intelligenz?
Im Zusammenhang mit der Verwendung von künstlicher Intelligenz im Bereich des Urheberrechts stellen sich eine Reihe von komplexen Fragen. Zentrale Fragen sind, von wem Schadensersatzansprüche geltend gemacht werden können. Wer haftet, wenn ein künstliches Intelligenzsystem ein urheberrechtlich geschütztes Werk verwendet? Sind es die Unternehmen, die hinter der Entwicklung und Bereitstellung der KI-Technologie stehen? Oder sind es die Nutzer, die die KI zur Erstellung oder Verbreitung von Inhalten einsetzen?
Des Weiteren stellt sich die Frage, wer als Täter und Störer im Sinne des Strafrechts betrachtet werden kann und wie diese Personen ermittelt werden. Ähnlich wie bei Providern ergeben sich auch bei der Verwendung von KI ähnliche Probleme. Beim Filesharing oder illegalem Videostreaming kann man vom Provider Auskunft über die Nutzer verlangen. Daher stellt sich die Frage, ob man auch von KI-Unternehmen Auskunft über die Verwendung urheberrechtlich geschützter Werke verlangen kann, ohne dass diese für Urheberrechtsverletzungen haftbar gemacht werden.
Die aktuelle Rechtslage ist in diesem Bereich noch unklar und lässt Raum für Interpretationen. Das deutsche Urheberrechtsgesetz (UrhG) bietet Künstlern unabhängig von einer Anmeldung ihres Werkes urheberrechtlichen Schutz. Eine entscheidende Frage ist, wer als Anspruchsgegner des Künstlers in Betracht kommt. Ist es das Unternehmen, das die KI entwickelt und einsetzt? Ist es der Nutzer, der die KI zur Erstellung von Inhalten verwendet? Oder kann der Künstler möglicherweise beide in Anspruch nehmen?
Es gibt zurzeit keine explizite Haftungsnorm für Inhaber von KI-Unternehmen gemäß §99 UrhG, da diese nur in den Fällen des Unterlassungsanspruches nach §97 Absatz 1 UrhG greift. Die Durchsetzung von Schadensersatzansprüchen in der Praxis gestaltet sich ebenfalls schwierig. Wie soll der Urheber feststellen, dass sein Werk von einer KI verwendet wurde? Möglicherweise kopiert die KI das gesamte Werk nicht, sondern nutzt nur einen Teil davon.
Um eine Lösung für dieses Problem zu finden, stellt sich die Frage, ob KIs dazu befähigt werden sollten, Quellenangaben zu lernen. Könnte eine umfassende Datenbank aller Urheber praktikabel sein? Sind weitere Verwertungsgesellschaften wie die GEMA erforderlich, um die Interessen der Urheber im Zusammenhang mit KI zu schützen?
Neues zu ChatGPT
Neuer Report zu ChatGPT & generativer KI in Anwaltskanzleien zeigt Chancen und Bedenken auf
In einem neuen Report von Thomson Reuters werden die sich wandelnden Einstellungen zur Verwendung von generativer KI und ChatGPT in Anwaltskanzleien diskutiert. Nachdem dieses Thema das Interesse vieler Anwält:innen und Expert:innen der Rechtsbranche geweckt hat, überrascht es nicht, dass Meinungen hier stark divergieren. Sowohl über potenzielle Veränderungen bei der Erbringung, Preisgestaltung und Ausführung von Rechtsdienstleistungen, die der breitere Einsatz von generativer KI mit sich bringen könnte, als auch über die unbekannten Risiken, die eine solche Nutzung mit sich bringen könnte.
In einer kürzlich durchgeführten Umfrage von Anwälten großer und mittelgroßer Anwaltskanzleien in den USA spiegelt sich diese Dichotomie deutlich wider. Eine große Mehrheit (82%) der Befragten gab an, dass sie der Meinung sind, dass ChatGPT und generative KI in der juristischen Arbeit eingesetzt werden könne, eine etwas kleinere Mehrheit (51%) sprach sich dafür aus, dass ChatGPT und generativer KI hier eingesetzt werden sollte.
Die Umfrage bildet die Grundlage des Reports mit dem Titel “ChatGPT & Generative KI in Anwaltskanzleien”, der einen tiefen Einblick in die sich entwickelnden Einstellungen zur generativen KI und ChatGPT in Anwaltskanzleien gibt. Dabei werden das Bewusstsein und die Akzeptanz der Technologie sowie die Ansichten der Anwälte zu den potenziellen Risiken untersucht.
Da sich ChatGPT bzw. Generative KI inzwischen für einen Großteil der Rechtsbranche, von einem bloßen Konzept zur Realität entwickelt hat, verdienen die Erkenntnisse des Reports besondere Aufmerksamkeit von Anwaltskanzleien und Rechtsexperten. Diese Erkenntnisse umfassen unter anderem:
Veränderung der Einstellung: Obwohl fast alle Befragten von ChatGPT und generativer KI gehört haben, ist der tatsächliche Einsatz in Anwaltskanzleien bisher recht begrenzt. Nur 3% der Befragten gaben an, derzeit tatsächlich generative KI nutzen. Eine deutlich größere Anzahl (34%) gab allerdings an, dass ihre Kanzlei darüber nachdenke, ob generative KI für juristische Arbeitsabläufe eingesetzt werden sollte.
Vorsichtiger proaktiver Ansatz: Etwa 15% der Befragten gaben an, dass ihre Kanzleien ihre Mitarbeiter vor unbefugter Nutzung generativer KI am Arbeitsplatz gewarnt, 6% sogar, dass ihre Kanzleien eine unbefugte Nutzung generativer KI vollständig verboten habe. Dies zeigt, dass viele Anwälte die Bedeutung von Schutzmaßnahmen bei der Nutzung generativer KI verstehen. Alle Befragten betonten zudem, dass sie den generativen KI-Tools, insbesondere dem öffentlich zugänglichen ChatGPT-Tool, nicht vollständig vertrauen, wenn es um vertrauliche Mandantendaten geht.
Wachsendes Bewusstsein für Risiken: Ein großer Teil der Befragten (62%) hat Bedenken hinsichtlich der Nutzung generativer KI am Arbeitsplatz, einschließlich 80% der Partner oder Managing Partner. Viele der geäußerten Bedenken drehen sich um die Genauigkeit und Sicherheit der Technologie, insbesondere hinsichtlich Privatsphäre und Mandantenschutz. Dennoch sind sich viele Beobachter der Rechtsbranche bewusst, dass wir in Bezug auf generative KI und ChatGPT noch am Anfang stehen. Zu erwarten ist, dass generative KI und ChatGPT zukünftig in Anwaltskanzleien genauso weit verbreitet sein werden wie die Online-Recherche und die elektronische Vertragsunterzeichnung heute.
Unabhängig von welcher Seite der Debatte über diese aufstrebende Technologie sich ein Anwalt befindet, macht der Bericht eines klar: Egal welches Niveau der Einsatz von ChatGPT und generativer KI letztendlich in Anwaltskanzleien und in der gesamten Rechtsbranche erreicht, diese Technologie hat das Potenzial, die Branche zu verändern. Selbst in ihrer Anfangsphase wird die zunehmende Akzeptanz von ChatGPT und generativer KI als Wendepunkt betrachtet.
“Innerhalb der nächsten sechs Monate wird jeder in der Kanzlei es nutzen”, sagte Charlotte Woolven-Brown, Leiterin der Abteilung Arbeitsrecht und Partnerin bei der Anwaltskanzlei Sternberg Reed, UK. “Und es gibt absolut keine Möglichkeit, das aufzuhalten, weil die Menschen sich mehr mit dem beschäftigen werden, was passiert und wie schnell sich diese Technologie entwickelt.”
Ein Beispiel, in dem die Verwendung von AI durch Rechtsanwälte nicht funktioniert hat, zeigt folgender Fall aus den USA.
Anwälte brachten vor einem Bundesgericht von ChatGPT generierte, gefälschte Zitate und vollständig erfundene Fälle ein.
Obwohl sie versuchten, die Verantwortung auf die künstliche Intelligenz zu wälzen, kam der Richter P. Kevin Castel zu dem Schluss, dass die Anwälte selbst in der Verantwortung stehen, die durch generative AI bereitgestellten Informationen zu überprüfen. Indem sie die Fälle nicht überprüften, verstießen sie gegen ihre anwaltlichen Sorgfaltspflichten.
Auch das Argument eines der betroffenen Anwälte, er habe die Möglichkeit, ChatGPT könne fiktive Fälle zitieren oder sogar erfinden niemals in Betracht gezogen und sie lediglich wie eine Suchmaschine verwendet sei nicht haltbar. Vielmehr betonte der Richter, dass die Anwälte die durch GPT bereitgestellten Informationen genauer prüfen müssen, da sie sich selbst, ihren Mandanten, dem Gericht und der Wahrheit gegenüber verpflichtet seien. Es handele sich hierbei um ein Versagen der Menschen und nicht um technische Mängel.
Obwohl einige Kritik an den Schöpfern großer Sprachmodelle gerichtet werden kann, weil sie Benutzer möglicherweise über die Glaubwürdigkeit der generativen KI in die Irre geführt haben, ist Richter Castel der Ansicht, dass die Verantwortung bei den Anwälten liegt. Wenn Technologie als Werkzeug verwendet wird, ist es Aufgabe der Verwendenden Anwälte, die Ausgaben zu überprüfen. Dieser Fall verdeutlicht die Bedeutung menschlicher Verantwortlichkeit und Sorgfalt im Umgang mit neuer Technologie, insbesondere künstlicher Intelligenz.
KI in der Justiz: Effizientere Entscheidungen durch innovative Technologien
In Nordrhein-Westfalen und Bayern: Einsatz künstlicher Intelligenz in der Justiz
Der Einsatz künstlicher Intelligenz in der Justiz von Nordrhein-Westfalen und Bayern steht im Fokus. Die beiden Bundesländer setzen auf innovative Technologien, um effizientere und schnellere Entscheidungen zu treffen. Durch den Einsatz von KI-Systemen können beispielsweise rechtliche Texte automatisch analysiert und Auskünfte zu Rechtsfragen gegeben werden.
Ziel ist es, die Arbeitsbelastung der Justizmitarbeiter zu reduzieren und den Bürgern einen besseren Zugang zum Recht zu ermöglichen. Der Einsatz von KI in der Justiz ist ein spannender Schritt in Richtung digitaler Transformation und könnte zukünftig weitere Verbesserungen im Rechtssystem bringen.
Podcast-Tipp
NewLaw Radar-Podcast: Legal Tech im Energierecht – Die digitale Transformation einer Branche
Warum eignet sich Legal Tech gerade auch im Energierecht? Welche Legal Tech-Anwendungen gibt es in diesem Rechtsgebiet bereits? Und was war der Einfluss der Energiekrise auf die Digitalisierung des Energierechts? Antworten auf diese und weitere Fragen findet ihr in unserer neuesten Folge des NewLaw Radar-Podcasts.
Podcast-Tipp
Ref-Pod: Der Podcast für angehende Jurist:innen im Referendariat
Die nordrhein-westfälische Justiz hat den Podcast “RefPod” gestartet, der sich speziell an Referendar:innen richtet. In diesem Podcast werden relevante Themen rund um das juristische Referendariat behandelt, wie beispielsweise Prüfungsvorbereitung, Examensstress und Karrierechancen. Mit dem RefPod möchte die Justiz NRW angehenden Jurist:innen eine informative und praxisnahe Unterstützung bieten.
Last Updated on 22. September 2023