BRAK MAGAZIN 6/2025 8 KÜNSTLICHE INTELLIGENZ IN DER KANZLEI Der neue Leitfaden des CCBE Ass. jur. Anja Jönsson und Rechtsanwältin Dr. Tanja Nitschke, Mag. rer. publ., BRAK, Berlin Nicht nur im Alltag, sondern auch im professionellen Umfeld ist künstliche Intelligenz in aller Munde. Inzwischen gibt es ein breites Angebot, von einfachen Zusammenfassungen mit kostenfreien KITools wie ChatGPT bis hin zu juristischen Recherchen und Vertrags- oder Schriftsatzentwürfen mit spezialisierten, juristisch trainierten Tools. Zahlreiche Kanzleien setzen sie bereits ein. Das führt u.a. zu der Frage, wie anwaltliche Leistungen unter KIEinsatz zu honorieren sind und ob man sie sinnvoll mit den bisherigen Stundenhonorarsätzen abbilden kann oder ob ganz andere Preismodelle nötig sind. Denn mit dem Einsatz von KI-Tools wird vielfach die Erwartung verbunden, Kosten zu sparen, schneller zu Ergebnissen zu gelangen und die Ressourcen der eigenen Kanzlei effizienter zu nutzen. In jüngster Zeit wurden auch Fälle bekannt, in denen Anwälte offensichtlich fehlerhafte KI-generierte Zitate ungeprüft übernommen hatten (zu den resultierenden Haftungsfragen s. Denz, BRAK-Mitt. 2025, 316). Sie werfen ein Schlaglicht auf sog. Halluzinationen als eines der mit KI-Nutzung verbundenen Risiken – und zugleich auf das Spannungsfeld zwischen technologischen Möglichkeiten und berufsrechtlichen Anforderungen. Auf diese Risiken hat der Rat der Europäischen Anwaltschaften (CCBE) mit seinem im Herbst 2025 veröffentlichten umfangreichen Leitfaden zum Einsatz generativer Künstlicher Intelligenz (generative KI) durch Rechtsanwältinnen und Rechtsanwälte reagiert. Der Leitfaden verfolgt keinen abwehrenden Ansatz, sondern entwickelt einen praxisorientierten Rahmen für den verantwortungsvollen Umgang mit der Technologie unter Wahrung der etablierten berufsethischen Standards. TECHNOLOGISCHE GRUNDLAGEN Der Leitfaden erläutert zunächst die technischen Grundlagen: Was ist generative KI und wie funktionieren Sprachmodelle (Large Language Models – LLMs)? Ohne deren probabilistische, also auf Zufallsvariablen und Wahrscheinlichkeitsberechnungen basierende Arbeitsweise zu kennen, lässt sich die Verlässlichkeit, Haftung und Nachprüfbarkeit von KI-Tools im anwaltlichen Kontext nicht richtig einschätzen. TECHNOLOGIEBEDINGTE RISIKEN Der CCBE-Leitfaden identifiziert mehrere technologiebedingte Risiken, die bei unsachgemäßem Einsatz unmittelbar zu Berufspflichtverletzungen führen können: Halluzinationen: LLMs generieren regelmäßig faktisch falsche oder erfundene Informationen; das ist eine Folge ihrer probabilistischen Arbeitsweise. Dokumentiert sind z.B. Fälle, in denen nicht existierende Gerichtsentscheidungen mit plausibel klingenden Aktenzeichen, fiktive Gesetzeszitate oder erfundene wissenschaftliche Quellen ausgegeben wurden. Die Übernahme solcher Inhalte in Schriftsätze oder Gutachten kann zu gravierenden Fehlberatungen führen. Datenschutz- und Vertraulichkeitsrisiken: Viele cloudbasierte KI-Tools verarbeiten Eingabedaten zu Trainingszwecken weiter. Mandantendaten, die in solche Systeme eingegeben werden, verlassen die geschützte Kanzleiumgebung und können potenziell für andere Nutzende reproduziert oder extern gespeichert werden. Bias und systematische Verzerrungen: Trainingsdaten spiegeln häufig historische oder gesellschaftliche Voreingenommenheiten wider. Diese können sich in juristischen Analysen und Empfehlungen manifestieren und die Objektivität der Rechtsberatung beeinträchtigen. Intransparenz der Algorithmen: Der sog. Black-BoxEffekt erschwert die Nachvollziehbarkeit von KI-Entscheidungen. Anwältinnen und Anwälte können meist nicht erkennen, auf welcher Datenbasis und mit welcher Logik ein bestimmtes Ergebnis zustande kam. Foto: freepik
RkJQdWJsaXNoZXIy ODUyNDI0