AUFSÄTZE BERUFS- UND HAFTUNGSRECHTLICHE FOLGEN VON HALLUZINIERTEN KI-ERGEBNISSEN „AUF DAS (AUS)MASS KOMMT ES AN“ RECHTSANWALT CHRISTIAN DENZ* * Der Autor ist Rechtsanwalt in Köln, Doktorand am Institut für Prozess- und Anwaltsrecht der Universität Hannover sowie freier wissenschaftlicher Mitarbeiter der Rechtsanwaltskammer Köln. In jüngster Zeit wurden erste Fälle öffentlich, in denen Anwältinnen und Anwälte ungeprüft fehlerhafte, halluzinierte KI-Ergebnisse in ihre Schriftsätze übernahmen. Das Amtsgericht Köln bewertete dies in einer aktuellen Entscheidung als Verstoß gegen das berufsrechtliche Sachlichkeitsgebot. Der Autor untersucht, inwieweit durch die ungeprüfte Verwendung von KI-Halluzinationen das Sachlichkeitsgebot nach § 43a III 1 bzw. 2 BRAO oder weitere berufsrechtliche Pflichten verletzt sein können oder ein Prozessbetrug in Betracht kommt. Ferner erörtert er, ob und wann in solchen Fällen eine zivilrechtliche Haftung von Anwältinnen und Anwälten in Betracht kommt. I. EINLEITUNG Künstliche Intelligenz (KI) wird in der juristischen Praxis immer häufiger eingesetzt. Dabei sind die Möglichkeiten des Einsatzes im anwaltlichen Arbeitsalltag vielfältig und reichen von der digitalen Organisation der Kanzlei bis hin zur automatisierten Lösungen von rechtlichen Problemen durch KI.1 1 Remmertz, Legal Tech-Strategien/Jungk, 2. Aufl. 2025, § 7 Rn. 25. Am häufigsten werden wohl derzeit noch die KI-Systeme im Bereich der juristischen Recherche und für Sprachüberarbeitungen (Muster, Vorlagen und Umformulierungen) eingesetzt.2 2 Zu dem Problem der fehlenden Verknüpfung zu juristischen Datenbanken bei dem Einsatz als Recherche-Tool Remmertz, Legal Tech-Strategien/Yuan, 2. Aufl. 2025, §3Rn. 18. KI-Tools wie ChatGPT können in Sekunden Zusammenfassungen erstellen, unterschiedliche verfügbare Quellen vergleichen und darauf basierende erste Argumentationsstrukturen aufzeigen. Dabei kann das Problem der sog. KI-Halluzinationen auftreten. Darunter versteht man Fälle, in denen die KI zwar sprachlich überzeugende, inhaltlich aber falsche Informationen liefert, etwa frei erfundene Gerichtsurteile oder nichtexistierende Literaturangaben.3 3 Hartung, RDi 2023, 209 Rn. 22 ff. Aktuelle Vorfälle verdeutlichen die Brisanz des Themas. Im Juni 2025 legte ein Anwalt beim AG Köln4 4 AG Köln, Beschl. v. 2.7.2025 – 312 F 130/25, BeckRS 2025, 15539. einen Schriftsatz vor, der unzutreffende bzw. frei erfundene Quellen enthielt. Im Fall des Fußballvereins Carl Zeiss Jena wurde ebenfalls ein von KI erstellter Schriftsatz beim Verbandsgericht des Nordostdeutschen Fußballverbands eingereicht, der durch die Aufnahme nichtexistierender Urteile auffiel.5 5 Schriftsatz des Sportvereins Carl Zeiss Jenas an das Sportgericht, welcher auch durch die Boulevard Presse ging https://www.bild.de/sport/fussball/mit-ki-formulie rt-fc-carl-zeiss-jena-verliert-vor-sportgericht-nach-brief-desaster-689c55460fb2e02f 8207507c. Im Nachgang gestand der Verein sogar die KI-Erstellung ein und tat diese als bewusste Ironie ab https://www.welt.de/sport/fussball/article689e05f5b 7e38d4fabb234f2/Carl-Zeiss-Jena-KI-Halluzinationen-sagt-Richter-Ironie-nicht-erfa sst-kontert-Klub.html. Erste Gerichte sind also auf die Problematik aufmerksam geworden und beziehen in ihren Urteilen zunehmend deutlich Stellung zu den Halluzinationen von KI-Systemen.6 6 So schreibt das OLG Celle in seinem Beschluss nur „Die von der Beklagten genannte Fundstelle kann der Senat nicht überprüfen, da es sich insoweit um ein Fehlzitat handelt, das weder bei juris noch bei beck-online unter den genannten Parametern (Datum/Aktenzeichen/Fundstelle) aufrufbar ist.“, OLG Celle, Beschl. v. 29.4.2025 – 5U1/25. Es ist sehr wahrscheinlich, dass es weitere bislang unentdeckte Fälle gibt oder dass solche zwar erkannt wurden, das Gericht sich in seinen Urteilsgründen jedoch nicht dazu geäußert hat.7 7 So auch Hartung, Halluzinationen in Schriftsätzen, abrufbar unter https://anwalts blatt.anwaltverein.de/de/themen/kanzlei-praxis/halluzinationen-in-schriftsaetzen. Jedenfalls hat das AG Köln in seinem Beschluss ausdrücklich auf die Möglichkeit eines Berufsrechtsverstoßes hingewiesen.8 8 Dazu führte das AG Köln aus: „Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen. Der Verfahrensbevollmächtige ist Fachanwalt für Familienrecht und sollte die Rechtslage kennen“, AG Köln, Beschl. v. 2.7. 2025 – 312 F 130/25, BeckRS 2025, 15539 Rn. 11. Es stellen sich jedoch nicht nur berufsrechtliche Fragen, sondern auch die Frage der Haftung, wenn die Rechtsanwältin oder der Rechtsanwalt KI-Halluzinationen übernimmt und verwendet. Insbesondere könnten Mandantinnen und Mandanten aufgrund der zunehmenden medialen Berichterstattung und der teilweise deutlichen Worte in den Urteilen den Eindruck gewinnen, dass die Verwendung der KI-Halluzinationen zwangsläufig mit haftungsträchtigen Fehlern verbunden ist. II. BERUFSRECHTSVERSTOSS Im Zusammenhang mit der Frage eines möglichen Berufsrechtsverstoßes stellte das AG Köln relativ klar auf die Möglichkeit der Verletzung des Sachlichkeitsgebots DENZ, BERUFS- UND HAFTUNGSRECHTLICHE FOLGEN VON HALLUZINIERTEN KI-ERGEBNISSEN BRAK-MITTEILUNGEN 5/2025 AUFSÄTZE 316
RkJQdWJsaXNoZXIy ODUyNDI0