Die rasante Integration von Künstlicher Intelligenz in verschiedene Berufsfelder hat inzwischen auch den juristischen Bereich erreicht – und sorgt gleichermaßen für Begeisterung über Effizienzgewinne wie für ernsthafte Bedenken hinsichtlich Genauigkeit und Verantwortlichkeit. Zwei Fälle, einer aus den Vereinigten Staaten und ein gemeldetes Pendant aus Deutschland, veranschaulichen diesen Wandel eindrucksvoll – insbesondere im Hinblick auf die Nutzung von KI durch Jurist:innen selbst.
In den Vereinigten Staaten dient der Fall James Gauthier v. Goodyear Tire & Rubber Co. (Civil Action 1:23-CV-281, E.D. Tex. 2024) als mahnendes Beispiel für die Risiken einer unkritischen Abhängigkeit von KI. Zwar betraf die Klage ursprünglich eine angeblich ungerechtfertigte Kündigung, doch erlangte sie breite Aufmerksamkeit wegen des Verhaltens von Gauthiers Anwalt Brandon Monk. Dieser wurde sanktioniert, weil er eine Erwiderung eingereicht hatte, die Zitate und Verweise auf Gerichtsentscheidungen enthielt, die von Künstlicher Intelligenz generiert worden waren – und die sich später als frei erfunden herausstellten. Der Fall macht ein zentrales Problem deutlich: Die sogenannte „Halluzination“ generativer KI – also das Erfinden von Informationen – kann die Integrität juristischer Schriftsätze massiv gefährden. Das Gericht stellte klar, dass Anwält:innen eine nicht delegierbare Pflicht zur Prüfung der inhaltlichen Richtigkeit aller Einreichungen haben – unabhängig davon, welche Werkzeuge sie bei der Erstellung verwenden.
Auf der anderen Seite des Atlantiks findet sich ein offenbar vergleichbarer Fall im deutschen Rechtssystem, vgl. AG Köln, Beschluss vom 02.07.2025 – 312 F 130/25. Das KI-generierte Dokument wurde als irreführend und unprofessionell eingestuft und verstößt gegen die Bundesrechtsanwaltsordnung (BRAO), insbesondere § 43a Absatz 3. Das Gericht betonte, dass ein solches Verhalten die Integrität des Anwaltsberufs und die Rechtsstaatlichkeit untergräbt.
Diese beiden Fälle dienen der weltweiten juristischen Gemeinschaft als eindringliche Warnung: Der Einsatz von KI im Rechtswesen erfordert zwingend sorgfältige menschliche Kontrolle und Überprüfung.
Genau hier kommen fortschrittliche juristische Recherchelösungen wie Anita ins Spiel. Diese Plattform basiert auf hochentwickelter KI-Technologie und einem konsequenten Transparenzanspruch – und begegnet damit genau den Herausforderungen, die im Gauthier-Fall sowie jüngst vor dem AG Köln und im allgemeinen Umgang mit KI im Rechtswesen zutage treten:
Erklärbare KI ohne Halluzinationen:
Anita setzt bewusst auf eine patentierte „erklärbare KI“. Das bedeutet, die Prozesse sind nachweislich zu 100 % nachvollziehbar, und das System liefert Ergebnisse, ohne Informationen zu erfinden. Statt bloß Texte zu generieren, identifiziert und strukturiert Anita Argumente aus echten Gerichtsentscheidungen und verweist in präzisen Fußnoten auf die Originalquellen. Dies ist eine direkte Antwort auf das „Halluzinationsproblem“, die in den genannten Fällen deutlich wurde.
Genauigkeit und Überprüfbarkeit:
Durch direkte Verlinkung zu Primärquellen und strukturierte Argumentationen auf Basis authentischer Urteile ermöglicht Anita es Jurist:innen, jede Information einfach zu verifizieren. Das reduziert das Risiko, versehentlich auf nicht existierende Fälle zu verweisen oder Rechtsprechung falsch zu interpretieren, erheblich.
Während sich die KI-Technologie weiterentwickelt und zunehmend Einzug in den juristischen Alltag hält, werden die Lehren aus Fällen wie James Gauthier v. Goodyear Tire & Rubber Co. und die Erkenntnisse aus Beschlüssen wie dem Beschluss des AG Köln von zentraler Bedeutung sein. Sie machen deutlich: Es braucht transparente, überprüfbare und verlässliche KI-Werkzeuge – und eine unerschütterliche ethische Verpflichtung von Jurist:innen, die Integrität ihrer Arbeit zu wahren. Plattformen wie Anita sind Vorreiter beim Aufbau der notwendigen technologischen Infrastruktur, um der komplexen, KI-gestützten juristischen Zukunft verantwortungsvoll zu begegnen.