BRAK-Magazin Ausgabe 6/2025

BRAK MAGAZIN 6/2025 9 Automation Complacency: Das Phänomen beschreibt die Tendenz, maschinell generierte Ergebnisse unkritisch zu übernehmen und unzureichend zu prüfen – eine direkte Gefährdung der anwaltlichen Sorgfaltspflicht. BERUFSRECHTLICHE ANFORDERUNGEN Der CCBE betont, dass die traditionellen anwaltlichen Pflichten auch beim Einsatz generativer KI uneingeschränkt gelten. Vier Kernbereiche stehen im Fokus: 1. Verschwiegenheitspflicht und Datenschutz Der Leitfaden formuliert klare Grenzen: Persönliche und vertrauliche Mandantendaten dürfen nur dann in KI-Systeme eingegeben werden, wenn der Anbieter rechtsverbindlich zusichert, dass diese Daten weder gespeichert noch für Trainingszwecke oder andere Zwecke weiterverarbeitet werden. Bei Nutzung öffentlich zugänglicher oder standardisierter KI-Modelle fordert der CCBE vollständige Anonymisierung. Sämtliche identifizierenden Informationen – Namen, Adressen, Aktenzeichen, spezifische Sachverhaltsdetails – müssen entfernt werden, und zwar so, dass auch aus dem Kontext keine Rückverfolgbarkeit möglich ist. Die DSGVOKonformität eingesetzten Systeme ist zwingend sicherzustellen. 2. Sorgfaltspflicht und fachliche Kompetenz Der CCBE formuliert eine klare Prüfpflicht: Jeder KIgenerierte Output muss von einem Anwalt oder einer Anwältin vollständig auf sachliche Richtigkeit, Vollständigkeit und juristische Plausibilität überprüft werden. Dies umfasst insbesondere: – Verifikation aller zitierten Rechtsnormen in Originalquellen – Überprüfung der Existenz, Aktualität und Einschlägigkeit von Gerichtsentscheidungen – Kontrolle der Relevanz und Anwendbarkeit der recherchierten Inhalte auf den konkreten Fall – Prüfung der logischen Stringenz rechtlicher Argumentationen KI darf ausschließlich assistierend eingesetzt werden, etwa für Entwürfe oder Zusammenfassungen. Zentrale juristische Bewertungen, taktische Erwägungen und finale Schriftsätze bleiben menschliche Aufgabe. 3. Unabhängigkeit und professionelle Autonomie Die berufliche Unabhängigkeit gewährleistet, dass Rechtsrat ausschließlich den Mandanteninteressen und dem Gesetz verpflichtet ist. KI-Systeme können diese Unabhängigkeit auf mehreren Ebenen gefährden. Vor allem kann Bias in Trainingsdaten den Output verzerren. Anwältinnen und Anwälte müssen diese Gefahr kennen und KI-Ergebnisse kritisch hinterfragen, statt sie als objektive Wahrheit zu übernehmen. 4. Transparenz und Mandanteninformation Der Leitfaden empfiehlt außerdem, die Mandantschaft aktiv darüber zu informieren, dass generative KI bei der Bearbeitung des Mandats genutzt wird. Außerdem sollte der Einsatz sorgfältig dokumentiert werden, sowohl zur internen Qualitätssicherung als auch zur etwaigen Nachweisführung gegenüber Berufsaufsicht und Mandantschaft. GOVERNANCE-STRUKTUREN FÜR KANZLEIEN Zudem entwickelt der Leitfaden konkrete Empfehlungen für organisatorische und technische Maßnahmen. Dazu zählen u.a. interne Richtlinien für die KI-Nutzung, ein zentrales Verzeichnis aller eingesetzten KI-Systeme und ihrer Einsatzzwecke sowie regelmäßige Schulungen für alle Mitarbeitenden zu verantwortungsvoller KI-Nutzung. HAFTUNG UND VERANTWORTUNG BLEIBEN MENSCHLICH Der CCBE-Leitfaden ist ein Wegweiser, der dabei hilft, berufsethische und -rechtliche Anforderungen in das KI-Zeitalter zu übersetzen. Materialien, die Anwaltschaften in der ganzen Welt zur KI-Nutzung durch Anwältinnen und Anwälte erarbeitet haben (s. Anhang zum Leitfaden), geben ergänzende Aufschlüsse. Die Kernaussage des CCBE ist deutlich: Generative KI ist ein kaum noch verzichtbares Werkzeug zur Effizienzsteigerung, doch sie funktioniert nur sicher und berufsrechtskonform unter der strengen, kritischen und voll verantwortlichen Kontrolle des Anwalts und der Anwältin. Anwältinnen und Anwälte sollten daher Vorsorge treffen und ihre Compliance-Strukturen schnell anpassen, um die Effizienzvorteile von KI nutzen zu können, ohne die Integrität, Vertraulichkeit und Qualität ihrer Rechtsberatung zu gefährden. Speziell auf die deutsche Rechtslage zugeschnitten sind die von der BRAK herausgegebenen Hinweise zum Einsatz von künstlicher Intelligenz, erarbeitet vom Vorsitzenden des BRAK-Ausschusses RDG, Dr. Frank Remmertz. Die Empfehlungen befassen sich vor allem mit den berufsrechtlichen Vorgaben nach §§ 43, 43a II, 43e BRAO sowie den Anforderungen nach der KI-Verordnung.

RkJQdWJsaXNoZXIy ODUyNDI0