Bis zu 20 % Preisnachlass
4
6
6
Kanzleien nutzen Anita – und es werden mehr
Blog

Wenn KI außer Kontrolle gerät: Warum juristische Fachkräfte transparente und verlässliche KI-Tools brauchen

July 31, 2025
Googles AI Overviews stehen in der EU wegen mangelnder Transparenz in der Kritik. Das beleuchtet eine entscheidende Notwendigkeit: Juristische Fachkräfte brauchen KI-Tools mit überprüfbaren Quellen und nachvollziehbarer Logik. Entdecken Sie, warum allgemeine KI für juristische Aufgaben unzureichend ist und weshalb spezialisierte, transparente KI unerlässlich für Vertrauen und Rechenschaftspflicht im Rechtsbereich ist.

Im Mai 2025 hat Google sein Feature „AI Overviews“ in der gesamten EU eingeführt – ein mutiger Schritt, der sofort die Aufmerksamkeit von Aufsichtsbehörden und Medien auf sich zog. Die Idee? KI-generierte Zusammenfassungen, die ganz oben in den Suchergebnissen angezeigt werden, um Nutzer:innen schneller zu Antworten zu führen.

Doch trotz aller Innovation steht diese Technologie nun unter intensiver Beobachtung durch die Europäische Kommission (Exclusive: Google's AI Overviews hit by EU antitrust complaint from independent publishers) . Warum? Wegen mangelnder Transparenz, unklarer Quellenangaben und der Gefahr, die Sichtbarkeit vertrauenswürdiger Medienquellen zu untergraben. Kurz gesagt: Googles KI ist möglicherweise zu undurchsichtig – zum Schaden der Nutzer:innen und der Informationsintegrität.

Rechtliche Warnsignale bei Googles AI Overviews

Die EU beruft sich auf mehrere regulatorische Rahmenwerke, um Googles neue Funktion zu prüfen, darunter:

  • Das Gesetz über digitale Dienste (DSA)
  • Das Gesetz über digitale Märkte (DMA)
  • Das Europäische Medienfreiheitsgesetz (EMFA)

Im Mittelpunkt der Untersuchung steht eine einfache, aber entscheidende Frage: Wie erzeugt die KI ihre Antworten – und wer kann das nachvollziehen? Woher stammen die Informationen? Nach welchen Kriterien werden Quellen ausgewählt? Sind die Ergebnisse voreingenommen? Das sind keine theoretischen Fragen – sie betreffen die Vertrauenswürdigkeit von Informationen und die öffentliche Verantwortung.

Für Jurist:innen zeigt diese Situation eine grundlegende Wahrheit: Nicht jede KI ist gleich – und nicht jede KI eignet sich für juristische Aufgaben.

Warum juristische KI höhere Standards braucht

Juristische Arbeit basiert auf Präzedenzfällen, Beweisen und Nachvollziehbarkeit. Ein KI-Tool, das nicht erklären kann, wie es zu einem Ergebnis gekommen ist, ist nicht nur unbrauchbar – es ist gefährlich.

Während Googles AI Overviews vielleicht für Alltagsfragen wie „Wie hoch ist der Eiffelturm?“ genügen, stellt sie ein ernsthaftes Risiko dar, wenn es um rechtliche, regulatorische oder Compliance-bezogene Fragen geht. Wenn die zugrunde liegenden Daten nicht überprüfbar sind, die Logik intransparent ist und die Quellen fehlen oder gefälscht sind, dann liefert die KI keine rechtliche Unterstützung – sondern ein Haftungsrisiko.

Juristische Fachkräfte brauchen:

  • Transparente Quellenangaben
  • Überprüfbare Zitate
  • Logik, die auf spezifische Rechtsräume zugeschnitten ist
  • Erklärungen, die einer gerichtlichen oder aufsichtsrechtlichen Prüfung standhalten

Warum spezialisierte juristische KI unverzichtbar ist

Im juristischen Bereich sind Genauigkeit und Nachvollziehbarkeit entscheidend. Eine der größten Herausforderungen bei generativer KI ist das sogenannte „Halluzinieren“ – wenn Modelle Inhalte oder Zitate erzeugen, die nicht auf echten Quellen basieren, etwa erfundene Gerichtsurteile. Um dem entgegenzuwirken, setzen wir auf erklärbare KI (XAI – Explainable AI). Sie ermöglicht es, nachzuvollziehen, wie das Modell zu einer bestimmten Antwort kommt, und stellt sicher, dass jede Referenz auf eine reale, überprüfbare Quelle zurückgeführt werden kann.

Das ist besonders wichtig, denn wenn die Quelle selbst halluziniert ist, wird eine Kontrolle nahezu unmöglich. XAI hilft dabei, die oft als „Black Box“ wahrgenommenen KI-Systeme – insbesondere komplexe Modelle wie neuronale Netze – transparenter zu machen.

Neben der Verbesserung der Genauigkeit unterstützt XAI auch menschliche Kontrolle und hilft, die Verbreitung von Desinformation oder potenziell schädlichen Inhalten zu verhindern. Sie spielt außerdem eine zentrale Rolle beim Schutz von Nutzerrechten und beim Aufbau von Vertrauen in KI-Systeme – gerade in sensiblen Bereichen wie dem Recht.

Hier kommen juristische KI-Plattformen ins Spiel.

Im Gegensatz zu allgemeinen KI-Anwendungen sind juristische Tools so konzipiert, dass sie:

  • Reale juristische Quellen zitieren und verlinken (Gesetze, Urteile, Vorschriften)
  • Rechtsräume und Zeiträume präzise erfassen
  • Rechtliche Argumentation nachvollziehbar erklären – statt vage Inhalte aus dem Netz zusammenzufassen
  • Ethische und berufsrechtliche Standards einhalten

In einer Zeit, in der sogar die KI großer Tech-Konzerne von Regulierungsbehörden beobachtet wird, müssen Jurist:innen – und ihre Tools – besonders hohe Maßstäbe erfüllen.

Fazit: KI ist da. Aber sie muss rechtskonform sein.

Die Untersuchung der EU zu Googles AI Overviews ist ein Weckruf: Wenn man nicht nachvollziehen kann, woher eine Antwort stammt, darf man sich nicht auf sie verlassen – vor allem nicht im juristischen Bereich.

Für Anwält:innen, Unternehmensjurist:innen und Compliance-Teams geht es nicht nur um technologische Innovation. Es geht um Vertrauen, Nachvollziehbarkeit und berufliche Verantwortung. Deshalb reicht eine allgemeine KI nicht aus.

Juristische KI muss für das Recht gemacht sein – und für diejenigen, die es praktizieren.