Liebe Leser:innen, in dieser Ausgabe haben wir wieder ganz viele interessante Themen rund um Legal Tech im Newsletter.
- Heute Abend ist unser nächstes recode.talks Event mit Lukas Friehoff (BCG), der von alternativen Karrierewegen als Jurist berichtet.
- Am Sonntag ist Bundestagswahl und deshalb haben wir für Euch die wichtigsten Punkte zum E-Government zusammengefasst und es gibt auch einen Artikel dazu auf unserer Website.
- Wir ziehen auch eine erste Bilanz zum Digitalhaushalt und machen einen Kassensturz für die Digitalisierungspolitik.
- Zudem erläutern wir, wie Deepfakes im Wahlkampf juristisch zu bewerten sind und ob die EU für Deepfakes ein scharfes Schwert hat.
- Auf dem KI-Gipfel in Paris wurde die InvestAI Initiative vorgestellt. Was verbirgt sich dahinter und bringt uns das in Europa weiter?
- Des Weiteren geben wir einen Einblick in die neuen Leitlinien zum AI Act und thematisieren die (bleibenden) Elemente der KI-Haftungsrichtlinie.
- Wir haben auch noch einen Workshop mit YPOG für Euch und möchten Euch unseren Partner Talent Rocket vorstellen.
Redaktion: Dennis, Jeremias, Jakob, Linus, Mounir, Paul und Friedrich.
Wir sind gespannt auf Eure Meinung! Wir freuen uns über eure Vorschläge und Feedback an radar@recode.law!
Bundestagswahl 2025
Wie viel Digitales versprechen die Parteien?
Angesichts der Bundestagswahl am kommenden Sonntag haben wir uns die Wahlprogramme der Parteien angeschaut und in einem Artikel sowie einer Grafik die Pläne der Parteien hinsichtlich der Digitalisierung zusammengefasst.
Beides könnt ihr auf unserer Website aufrufen, und euch dabei mit den Digitalisierungsplänen der Parteien beschäftigen, die in den aktuellen Umfragen zu finden sind.
Insgesamt zeigt sich, dass die CDU/CSU, SPD, Grüne und FDP viele sehr ähnliche Pläne haben. Gerade die Parteien mit den derzeit besten Chancen auf eine Regierungsbeteiligung (CDU/CSU, SPD, Grüne) haben kaum Unterschiede, sodass wir eigentlich bereits in diesem Jahr ein Digitalministerium bekommen sollten und spätestens in vier Jahren auch die Verwaltung digitaler, und die Behördengänge digital möglich sein sollten.
Was hat sich seit der letzten Wahl verändert? Inzwischen haben nicht nur die FDP und CDU/CSU das Digitalisierungsministerium im Wahlprogramm, sondern auch SPD und Grüne. Bezüglich der Verwaltung sind die Verwaltungen zwar digitaler geworden und auch deutlich mehr Behördengänge sind nun digital möglich, trotzdem bleibt die vollständige Digitalisierung von beidem derzeit eher eine Wunschvorstellung, die in den letzten Jahren nicht ausreichend angegangen wurde. Für 2029 wünschen wir uns, dass die Digitalisierung der Verwaltung solche Fortschritte macht, sodass das Thema aus den Wahlprogrammen verschwinden kann.
Bundestagswahl 2025
Digitalisierung und Recht im Kontext der BTW 2025
Neben der Auswertung der Wahlprogramme haben wir uns mit fünf aktuellen rechtlichen Themen im Kontext der Digitalisierung auch an die Partei Volt gewendet. In dem Artikel findet Ihr unsere Bewertung der Themen und auch die Antworten von Volt zu folgenden Themen:
– Online-Verfahren im Zivilprozess
– OZG 2.0
– Definition von KI im Kontext der KI-VO
– Bundes-Chatbot für das erleichterte Verständnis von Gesetzen
– Föderalismus und Digitalisierung
> Hier geht’s zum Artikel
Deepfakes im Wahlkampf
Über die Regulierung nicht-gekennzeichneter Deepfakes nach Art. 50 AI-Act
Deepfakes spielen eine immer größere Rolle in Wahlkämpfen. Besonders der letzte US-Wahlkampf war in beachtlicher Art und Weise manipulierten Inhalten ausgesetzt. Tonaufnahmen, in welchen Biden die Bevölkerung zur Nichtwahl oder Videoaufnahmen, in denen Taylor Swift zur Wahl Trumps aufrief, sind nur zwei Beispiele. Im europäischen Raum und damit auch im deutschen Wahlkampf kursieren vermehrt manipulierte Inhalte durch die sozialen Medien. Sie haben das Potenzial, v.a. wenn sie ungekennzeichnet sind, die Meinungsbildung der Bevölkerung zu beeinflussen.
Dementsprechend stellt sich die Frage, wie innerhalb der EU mit solch manipulierten, ungekennzeichneten Inhalten zu verfahren ist?
Nach Art. 50 AI-Act bestehen für erzeugte oder manipulierte Bild-, Audio- und Videoinhalte, die Deepfakes darstellen, Offenlegungspflichten. Diese greifen allerdings erst ab August 2026. Sprich, wer ein Deepfake erzeugt, muss ihn auch als ein solchen gegenüber Dritten darstellen. Aufmerksame Nutzer sozialer Medien, wie TikTok, wissen jedoch, dass dies nicht immer der Fall ist.
Wird nun ein ungekennzeichneter Deepfake auf einem sozialen Medium verbreitet, ist er dann aufgrund der mangelnden Kennzeichnung als „rechtswidrig“ nach dem AI-Act zu entfernen? Erwägungsgrund 136 des AI-Acts betont insb. die Verantwortung großer Plattformen für die Offenlegung manipulierter Inhalte. Jedoch heißt es dort auch, dass etwaige Transparenzpflichten „die Beurteilung der Rechtswidrigkeit der betreffenden Inhalte und die Entscheidung darüber“ nicht beeinflussen sollen. Die Bewertung von Inhalten als rechtswidrig „sollte ausschließlich anhand der Vorschriften über die Rechtmäßigkeit der Inhalte vorgenommen werden“. Die mangelnde Kennzeichnung allein reicht somit nicht aus.
Kritiker dieses Regelungskonstrukts prangern an, dass aufgrund des Inhaltes von Erwägungsgrund 136 eine notwendige Verflechtung mit Art. 16 DSA verhindere. Art. 16 DSA ordnet Hostingdienstanbietern die Einrichtung eines Melde- und Abhilfeverfahren für den Umgang mit rechtswidrigen Inhalten an. Da die Bewertung als „rechtswidrig“ jedoch nach den Vorschriften über die Rechtmäßigkeit im AI-Act geschehen soll, würde ein effizienter Umgang mithilfe des Verfahrens aus Art. 16 DSA eingeschränkt werden.
Es zeigt sich, die Regelungssystematik zur Bewertung ungekennzeichneter Inhalte ist komplex. Zudem entfaltet Art. 50 AI-Act erst ab August 2026 Wirkung, weshalb die schon gegenwärtige Notwendigkeit derartiger Regulierungsmechanismen verkannt werden könnte.
KI-Gipfel in Paris
InvestAI: Europas KI-Aufbruch?
„KI wird unsere Gesundheitsversorgung verbessern, unsere Forschung und Innovation vorantreiben und unsere Wettbewerbsfähigkeit steigern. Wir wollen, dass KI eine Kraft ist, die Gutes und Wachstum bewirkt. Wir tun dies im Rahmen unseres eigenen europäischen Ansatzes, der auf Offenheit, Zusammenarbeit und herausragenden Talenten beruht. Aber bei unserem Ansatz muss jetzt der Turbo angeworfen werden.“
Mit diesen eindrucksvollen Worten eröffnete Ursula von der Leyen auf dem Aktionsgipfel zur Künstlichen Intelligenz in Paris eine neue Ära für Europa. Mit der Initiative „InvestAI“ sollen künftig 200 Mrd. Euro in den europäischen KI-Sektor fließen – ein ambitioniertes Vorhaben, das nicht nur den technologischen Rückstand gegenüber den USA und China ausgleichen, sondern Europa zu einem globalen KI-Kontinent machen soll.
Ein zentraler Baustein ist dabei ein europäischer Fonds in Höhe von 20 Mrd. Euro für KI-Gigafabriken. Mit diesem Kapital sollen in den kommenden Jahren vier spezialisierte Anlagen entstehen, die sich auf das Training der komplexesten, großskaligen KI-Modelle konzentrieren.
Die Dringlichkeit des Handelns
Europa steht vor der Herausforderung, im Wettlauf um die Vorherrschaft im KI-Sektor nicht weiter hinter den USA zurückzufallen. Anfang des Jahres hatte Donald Trump mit dem Projekt „Stargate“ ein gigantisches KI-Infrastrukturvorhaben von bis zu 500 Mrd. Dollar vorgestellt – ein klares Signal dafür, wie intensiv die Investitionen in den USA getätigt werden. Eine Studie aus dem Jahr 2022 zeigt zudem, dass seit 2017 73 % der größten Basismodelle von US-Firmen und 15 % von chinesischen Unternehmen veröffentlicht wurden. Für die EU verbleiben demnach weniger als 10 % – ein alarmierender Befund, der den Handlungsbedarf unterstreicht.
Hemmnisse und Herausforderungen
Neben der Kapitalbeschaffung sieht sich Europa mit weiteren Hürden konfrontiert. Endlose Berichtspflichten, staatliche Vorgaben und ein Berg aus Regulierung – sowohl durch den AI Act als auch durch den Code of Practice – bremsen die Innovationskraft. Die KI-Haftungsrichtlinie wurde in den letzten Metern noch gestoppt. Es ist daher zwingend erforderlich, wettbewerbsfähige Rahmenbedingungen zu schaffen, die nicht nur den Kapitalfluss erleichtern, sondern auch Raum für unternehmerische Freiheit und schnelle Entscheidungen lassen.
Europas Chance im globalen KI-Rennen
Die InvestAI-Initiative ist mehr als ein finanzieller Impuls – sie ist ein Weckruf, der zeigt, dass Europa bereit ist, in die Zukunft zu investieren. Mit einer starken, offenen und kollaborativen KI-Strategie kann der Kontinent nicht nur aufholen, sondern auch neue Maßstäbe in Forschung, Innovation und Anwendung setzen. Nur wenn Kapital, Technologie und kluge Regulierung Hand in Hand gehen, hat Europa die realistische Chance, im globalen KI-Wettbewerb mitzuspielen und letztlich die Richtung der vierten industriellen Revolution mitzubestimmen.
Die nächsten Jahre werden entscheidend sein für die digitale Zukunft Europas – und InvestAI könnte der Turbo sein, der den entscheidenden Unterschied macht.
Erste Studie zum “Digitalhaushalt”
Kassensturz für die Digitalisierungspolitik
Während Deutschland bei 5G, Unicorns, „digitaler Intensität“ und „e-Health-Reife“ über dem EU-Durchschnitt liegt, schwächelt es bei Glasfaser, digitaler Verwaltung, Digitalkompetenz und IT-Fachkräften. Wer vor der Bundestagswahl Sorge vor leeren Versprechen zur Digitalisierung hat, erhält nun neue Einblicke in die Bundesausgaben: Das Zentrum für Europäische Wirtschaftsforschung (ZEW) und der Thinktank „Agora Digitale Transformation“ der Stiftung Mercator veröffentlichten Mitte Februar hierzu eineStudie nach dem Vorbild Österreichs. Das ZEW finanzieren überwiegend Bund und Länder. Mercator als Stiftung der Metro-Aktionärsfamilie Schmidt-Ruthenbeck trat 2023 trotz großem politischen wie finanziellen Einfluss zugunsten der Energie- und Verkehrswende mit der „Trauzeugenaffäre“ auch medial Erscheinung.
Laut der Studie verdoppelte sich der „Digitalhaushalt“ von 9,6 Milliarden Euro (2,7 Prozent des Gesamthaushalts) im Jahr 2019 auf 19,1 Milliarden Euro (4,0 Prozent) in 2024. Dies entspricht nun 36 Prozent der Gesamtinvestitionen des Bundes und übersteigt den Etat des Gesundheits- sowie des Familienministeriums, stellt aber gleichzeitig „nur“ 15 Prozent der Rentenausgaben dar. Während 2019 die weitaus größte Ausgabe eine knappe Milliarde für IT-Dienstleistungen war, verdoppelte sich dies bis 2024, knapp dahinter flossen 1,7 Mrd. Euro an den Breitbandausbau. Auch für KMUs, Bildungsplattformen und Mikroelektronik gab der Bund vergleichsweise viel aus.
Dem Digitalhaushalt unterfallen dabei entsprechende Ausgaben insbesondere in den Bereichen Infrastruktur, Wirtschaft, Verwaltung, Bürgerkompetenzen, Kultur, Forschung und Innovation, Gesundheitswesen und Bundeswehr. Aufgrund starker Anstiege schlossen Infrastruktur und Bundeswehr die Lücke zu den größten Ausgabenposten Verwaltung und Forschung/Innovation. Auf deutlich niedrigerem Niveau, aber mit spürbarem Anstieg infolge der Schuldigitalisierung liegt das Bildungswesen. Trotz signifikanter Investitionen, zum Beispiel in die Gesundheitsdatenverarbeitung, bleibt das Gesundheitswesen dagegen abgehängt – wird allerdings dafür durch die Krankenversicherungen finanziert. Schlusslicht ist das Kulturwesen – 2024 reduzierte sich darüber hinaus nun auch noch die Computerspielförderung.
Die Corona-Pandemie diente laut Studie als „Katalysator“ der Digitalisierung, insbesondere durch die einmalige Förderung des digitalen Verlagswesens und Investitionen in das Infektionsschutzverfahren und die Medizininformatik.
Ob der 21. Deutsche Bundestag aus diesen Ergebnissen allerdings Rückschlüsse auf eine effektive Verwendung der Mittel ziehen können wird, bleibt abzuwarten. Die Menge der zugrundeliegenden Daten führte zur Beschränkung auf die meist höheren Soll-Ausgaben allein des Bundes, dazu ohne Berücksichtigung von Sondervermögen. Zudem hinkt Deutschland bei der Verwaltungsdigitalisierung trotz der hohen Ausgaben hinterher. Der richtige Rahmen und der sinnvolle Einsatz von Mitteln sind also essenziell – auch für ePA, Breitband, Digital Fairness Act, Digital Networks Act, DSA-Altersverifikation, AI Act und alle sonstigen digitalen Herausforderungen, die nach der Wahl anstehen.
Erste Vorschriften des EU AI Acts rechtsverbindlich
EU-Kommission veröffentlicht erste Leitlinien
Im Februar 2025 traten die ersten Bestimmungen des EU AI Acts in Kraft. Akteure, die unter den sachlichen Anwendungsbereich fallen, sind nun an die Vorgaben der Kapitel 1 und 2 gebunden.
Besonders relevant sind die Verbotstatbestände in Art. 5 AI ActO, die bestimmte KI-Systeme ausnahmslos untersagen. Dazu zählen etwa Systeme, die gezielt das Verhalten vulnerabler Gruppen beeinflussen (Art. 5 Abs. 1 lit. b), für Social Scoring eingesetzt werden (Art. 5 Abs. 1 lit. d) oder der Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen dienen (Art. 5 Abs. 1 lit. f). Diese Technologien sind aufgrund ihres potenziellen Einflusses auf betroffene Individuen grundsätzlich unzulässig. Zuwiderhandlungen können gem. Art. 99 Abs. III mit einem Bußgeld von bis zu 35.000.000 EUR oder 7% des weltweiten Jahresumsatzes sanktioniert werden.
Darüber hinaus sind Anbieter und Betreiber von KI-Systemen gemäß Art. 4 AI Act verpflichtet, ein angemessenes Maß an KI-Kompetenz sicherzustellen.
Bereits in der NLR-Ausgabe Dezember 2024 thematisierte recode.law die entscheidende Rolle von Leitlinien für die Umsetzung des AI Acts. Nun sind diese Leitlinien veröffentlicht und sollen für mehr Klarheit bei der Anwendung der neuen Vorschriften sorgen!
Am 04. Februar veröffentlichte die Kommission die Leitlinien zu verbotenen Praktiken. Dies ist das Ergebnis des im November 2024 initiierten Konsultationsverfahrens.
Am 06. Februar veröffentlichte die Kommission die Leitlinien zur Definition von KI-Systemen. Auch diese Leitlinie ist in ihren inhaltlichen Zügen auf ein Konsultationsverfahren zurückzuführen.
Leitlinien bieten Orientierung – Sie sind aber nicht rechtsverbindlich. Trotz ihrer Bedeutung sind die Leitlinien nicht rechtsverbindlich. Die finale Auslegung des AI Acts bleibt dem EuGH vorbehalten (vgl. jeweils Erwägungsgrund 5 bzw. 7). Dennoch bieten die Dokumente wertvolle Anhaltspunkte, um die Erwartungen des Regulators besser zu verstehen und die Tatbestände präziser einzuordnen.
Das war erste der Anfang. Diese Veröffentlichungen markieren erst den Beginn eines fortlaufenden Prozesses. Art. 96 AI Act lässt erkennen, dass weitere Leitlinien folgen werden – bspw. zur Operationalisierung der Hochrisiko-Anforderungen gem. Art. 8 ff. AI Act.
Die kommenden Monate werden zeigen, wie sich die Regulierung weiter formt und in der Praxis umgesetzt wird.
Gestoppt, aber nicht verschwunden
Beerdigt, aber nicht vergessen – Leben die Prinzipien der KI-Haftungsrichtlinie weiter?
Ende Januar 2025 nahm das Gesetzgebungsverfahren zur KI-Haftungsrichtlinie Fahrt auf. EU-Parlamentarier Axel Voss zeigte sich optimistisch, dass die Richtlinie bis Februar 2026verabschiedet wird. Doch nur vier Wochen später ist das Vorhaben gestoppt: Die EU-Kommission hat das Projekt überraschend eingestellt – ein abrupter Rückschlag für die geplante Regulierung.
I. Der blinde Fleck des AI Acts – Warum er die Haftungsrichtlinie nötig machte
Das EU-Gesetz zur künstlichen Intelligenz (AI Act) trat im Februar 2025 in Teilen in Kraft und regelt KI-Systeme nach Risikostufen. Doch trotz ihrer 113 Artikel bleibt ein entscheidendes Problem ungelöst: eine klare Grundlage für Schadensersatzansprüche. Während die DSGVO hier Schutzmechanismen bietet, bleibt der AI Act zurückhaltend.
Zwar existieren Rechtsbehelfe (Art. 85–87 AI Act), doch sie scheinen primär gerade nicht auf die Geltendmachung eines Schadensersatzanspruchs ausgerichtet zu sein. Allenfalls ließe sich erwägen, einzelne Vorschriften – etwa die Pflicht zur menschlichen Aufsicht bei Hochrisiko-KI (Art. 14) – als Schutznormen im Sinne von § 823 II BGB auszulegen. Auch die EU-Kommission sah diese Regelungslücke und thematisierte sie bereits in ihrem ursprünglichen, inzwischen fast drei Jahre alten Vorschlag zur KI-Haftungsrichtlinie. Im zweiten Erwägungsgrund stellte sie mit Blick auf den AI Act ausdrücklich fest, dass die Verordnung keine zivilrechtliche Haftungsgrundlage schafft.
II. Die zentralen Aspekte der KI-Haftungsrichtlinie
Auch wenn die KI-Haftungsrichtlinie vorerst nicht das Licht der Welt erblickt, lohnt ein Blick auf ihre zentralen Konzepte.
-
Akzessorietät zum AI Act. Die geplante KI-Haftungsrichtlinie orientierte sich stark am AI Act – sowohl sprachlich (vgl. etwa Art. 2 KI-Haftungsrichtlinie mit Art. 3 AI Act) als auch inhaltlich. Sie übernahm zentrale Begriffe der Verordnung und setzte ihren Fokus auf Hochrisiko-KI-Systeme gemäß Art. 6 AI Act. Damit folgte sie dem Grundprinzip, dass gerade diese Systeme besonders reguliert werden müssen.
-
Prozessuale Vorschriften ohne materiell-rechtliche Anspruchsgrundlagen. Die geplante KI-Haftungsrichtlinie sollte keine eigenen Anspruchsgrundlagen schaffen, sondern sich auf prozessuale Fragen konzentrieren (vgl. Art. 1 Abs. 1 lit. a und b). Ein “Recht auf Schadensersatz”, wie es bspw. Art. 5 der Produkthaftungsrichtlinie (EU 2024/2853) vorsieht, fehlte in der KI-Haftungsrichtlinie gänzlich.
-
Bestimmung über die Offenlegung von Beweismitteln und widerlegbare Vermutung eines Verstoßes (Art. 3 KI-Haftungsrichtlinie). Art. 3 Abs. 1 der KI-Haftungsrichtlinie räumte „potenziellen Klägern“ das Recht ein, vor dem zuständigen nationalen Gericht die Offenlegung von Beweismitteln durch den Anbieter oder Betreiber eines Hochrisiko-KI-Systems zu verlangen. Ein „potenzieller Kläger“ ist gem. Art. 2 Abs. 7 KI-Haftungsrichtlinie eine „natürliche oder juristische Person, die erwägt, einen Schadensersatzanspruch geltend zu machen, dies aber noch nicht getan hat.“ Die Verpflichtung zur Offenlegung von Beweismitteln bezieht sich insbesondere auf die im AI Act festgelegten Anforderungen an Hochrisiko-KI-Systeme gemäß Kapitel III Abschnitt 2 (insb. Art. 8 bis 15) sowie auf die Vorgaben in Abschnitt 3 (insb. Art. 16, 17, 26). Demnach kann der potenzielle Kläger Einsicht verlangen, um zu prüfen, ob der Beklagte seine rechtlichen Verpflichtungen eingehalten hat. Wenn der Beklagte die Offenlegung der Beweismittel verweigert, sollte nach Art. 3 Abs. 5 KI-Haftungsrichtlinie eine Sorgfaltspflichtverletzung vermutet werden. Im Ergebnis wird hierdurch also die Beweisführung des haftungsbegründenden Tatbestands massiv erleichtert. Nach Art. 3 Abs. 5 Unterabs. 5 handelt es sich hierbei um eine widerlegbare Vermutung.
-
Widerlegbare Vermutung des Kausalzusammenhangs (Art. 4 KI-Haftungsrichtlinie). Art. 4 Abs. 1 der KI-Haftungsrichtlinie setzte drei kumulative Voraussetzungen voraus, damit eine Kausalität zwischen Sorgfaltspflichtverletzung und Rechtsgutsverletzung vermutet werden konnte. Unabhängig von den genauen Tatbestandsvoraussetzungen ist die Motivation des Richtliniengebers hervorzuheben: Er erkennt die besonderen Hürden bei der Beweisführung eines Kausalzusammenhangs in Schadensersatzklagen an (vgl. Erwägungsgrund 22). Diese Hürde wird insbesondere durch die Black-Box-Eigenschaft vieler KI-Systeme verstärkt, da deren Funktionsprozesse oft intransparent und schwer nachvollziehbar sind. Gerade deshalb soll die Kausalitätsvermutung den Kläger von dieser prozessualen Last entlasten.
-
Zwischenergebnis. Letztlich bot die KI-Haftungsrichtlinie den Klägern in erster Linie prozessuale Werkzeuge, verzichtete jedoch auf eigene materiellrechtliche Haftungsgrundlagen. Dies erweist sich jedoch als unproblematisch, da bestehende Anspruchsgrundlagen weiterhin herangezogen werden können. Geht es um die Begründetheit eines geltend gemachten Anspruchs, hätten die prozessualen Erleichterungen, die der nationale Gesetzgeber im Einklang mit der Richtlinie umzusetzen gehabt hätte, berücksichtigt werden müssen.
III. Die KI-Haftungsrichtlinie ist tot, doch leben ihre Rechtsgedanken weiter?
Die geplanten prozessualen Mechanismen der KI-Haftungsrichtlinie treten nie in Kraft – zumindest nicht in dieser Form. Doch ihr Konzept lebt weiter: Die überarbeitete Produkthaftungsrichtlinie, die bis Dezember 2026 in nationales Recht umgesetzt werden muss, schließt nun auch KI-Systeme und Software explizit ein; dies belegen Erwägungsgrund 13 sowie Art. 4 Abs. 1 der neuen Produkthaftungsrichtlinie. In prozessualer Hinsicht lohnt sich insbesondere ein Blick auf Art. 9 und 10, die konzeptionell stark an zentrale Bestimmungen der KI-Haftungsrichtlinie angelehnt sind.
Das bedeutet: Während die KI-Haftungsrichtlinie offiziell gescheitert ist, könnten zentrale Haftungsprinzipien in anderer Gestalt wieder auftauchen!
Veranstaltungs-Tipp
“Von Akten zu Apps: Der Wandel der juristischen Praxis” bei YPOG in Hamburg am 06.03.2025
Die Digitalisierung verändert die Rechtswelt – und Du kannst live dabei sein! In unserem Workshop zeigen wir gemeinsam mit YPOG, wie selbst entwickelte Apps die juristische Arbeit revolutionieren. Erfahre, wie bei YPOG neue Technologien genutzt werden, um effizienter zu arbeiten, zu kommunizieren und Informationen zu verwalten. Gemeinsam testen wir, wie leistungsfähig LLMs für juristische Texte wirklich sind! Danach lassen wir den Abend entspannt ausklingen – beim Get-together in der YPOG-Bar, wo Du Dich in lockerer Atmosphäre weiter vernetzen kannst! YPOG freut sich auf Dich und sorgt für leckeres Essen und Getränke.
Melde Dich hier zu dem Workshop an! (Anmeldefrist: 26.02.25)
Veranstaltungs-Tipp
Heute Abend: Karriereinspiration für Jurist:innen und zu den Wurzeln von recode.law – Live Diskussion mit Lukas Friehoff
Wann? Mittwoch, 19.02.2025, 19 Uhr
Wo? Online via Zoom
Wir freuen uns in dieser Ausgabe von recode.talks eine echte recode.law Legende begrüßen zu dürfen. Lukas Friehoff ist Gründungsmitglied von recode.law und hat bereits eine spannende Berufslaufbahn absolviert – aktuell ist Lukas als Consultant bei der Boston Consulting Group (BCG) tätig.
Die Teilnahme lohnt sich:
– Wertvolle Tipps für einen gelungenen Berufseinstieg
– Erfrischende Perspektiven auf Karrierewege abseits der klassischen Juristenlaufbahn
– Warum sich ehrenamtliches Engagement zur Gestaltung des digitalen Wandels der Rechtsbranche lohnt
– Einblicke in die Gründungsgeschichte von recode.law und Perspektiven für die Zukunft
Alle Teilnehmer sind herzlich eingeladen, sich am Gespräch zu beteiligen. Wir sind gespannt auf einen inspirierenden Abend und eine rege Diskussion!
> Hier geht’s zum Meeting
Einwahldaten (Zoom):
Meeting-ID: 820 8987 9880 – Kenncode: 229603
Recode Law x Talent Rocket
Kennst Du schon Talent Rocket?
Talent Rocket ist die führende Karriereplattform für Jurist:innen in Deutschland. Mit deinem aussagekräftigen Onlineprofil und unserer einfachen One-Click-Bewerbung wird die Jobsuche so einfach wie nie zuvor. Egal ob Praktikum, Referendariat, Berufseinstieg oder der nächste große Karriereschritt – bei den über 400 aktiven Arbeitgebern auf unserer Plattform findest du die perfekte Stelle.
Zusätzlich kannst du dich von Arbeitgebern direkt finden lassen und von unseren exklusiven Karriere-Coachings profitieren, um optimal gewappnet zu sein. Und das Beste daran: Talent Rocket ist für dich komplett kostenlos!
Starte jetzt durch und entdecke deine Möglichkeiten: www.talentrocket.de
Last Updated on 21. Februar 2025