Ein Joint Venture von Ventum Consulting | VentumIQ | goodguys

Explainable AI in der Rechtsanalyse: Warum ein Flowchart mehr wert ist als ein Ja/Nein

Ein Kreditvertrag aus 2014 enthält eine Bearbeitungsgebühr von 1,5%. Ist sie rechtswidrig? Die Antwort scheint einfach — doch sie ist es nicht. Ob eine Kreditbearbeitungsgebühr anfechtbar ist, hängt von einem Geflecht aus Vertragstyp, Abschlussdatum, Verjährungsfristen, OGH-Judikatur und individuellen Vertragsklauseln ab. Ein einfaches „Ja" oder „Nein" greift zu kurz. Was Kanzleien brauchen, ist der Weg zur Antwort — nicht nur die Antwort selbst.

„Vor Gericht zählt nicht, was eine KI empfiehlt. Es zählt, wie sie zu dieser Empfehlung gekommen ist. Ohne Nachvollziehbarkeit ist jede KI-Analyse wertlos."

Warum Black-Box-KI vor Gericht nicht taugt

Generative KI-Systeme wie ChatGPT oder Claude produzieren beeindruckend formulierte Texte. Doch sie haben ein fundamentales Problem: Sie können nicht erklären, warum sie zu einem bestimmten Ergebnis kommen. Im juristischen Kontext ist das ein Ausschlusskriterium. Ein Anwalt, der vor Gericht auf eine Black Box-KI verweist, riskiert nicht nur den Prozess — er riskiert seine Berufshaftung.

Die regulatorischen Anforderungen verstärken dieses Problem: AI Act Art. 50 der EU verlangt Transparenzpflichten für KI-Systeme, die mit Menschen interagieren. DSGVO Art. 22 untersagt rein automatisierte Entscheidungen, die rechtliche Wirkung entfalten. Für Legal Tech bedeutet das: KI darf unterstützen, aber nicht entscheiden — und der Weg zur Unterstützung muss nachvollziehbar sein.

KLAGMAs Ansatz: Flowchart-basierte Entscheidungslogik

KLAGMA verfolgt einen fundamental anderen Ansatz als generische KI-Tools. Statt ein LLM eine freie Textantwort generieren zu lassen, implementiert KLAGMA eine Flowchart-basierte Entscheidungslogik: Jeder fachliche Prüfschritt wird systematisch und in definierter Reihenfolge durchlaufen.

Die Prüfschritte im OGH-Kreditgebühren-Kontext

Am Beispiel der Kreditbearbeitungsgebühren durchläuft KLAGMA folgende Prüfkaskade:

  1. Vertragstyp-Identifikation: Handelt es sich um einen Verbraucher- oder Unternehmerkredit? (Nur Verbraucherkredite sind relevant.)
  2. Gebührentyp-Klassifikation: Liegt eine Bearbeitungsgebühr, Kontoführungsgebühr oder sonstige Gebühr vor?
  3. Datum-basierte Judikatur-Zuordnung: Welche OGH-Entscheidung ist einschlägig? (Die Rechtsprechung hat sich seit 2012 mehrfach geändert.)
  4. Verjährungsprüfung: Ist der Anspruch noch durchsetzbar? (30 Jahre bereicherungsrechtlich vs. 3 Jahre vertragliche Verjährung.)
  5. Klauselprüfung: Ist die konkrete Vertragsklausel nach aktuellem Rechtsstand anfechtbar?
  6. Rückforderungsberechnung: Welcher Betrag kann zurückgefordert werden?

Jeder dieser Schritte wird explizit dokumentiert — mit dem Ergebnis, den herangezogenen Rechtsquellen und der Begründung für die Verzweigung. Das Resultat ist kein Freitext, sondern ein strukturierter Entscheidungsbaum, der als visuelles Flowchart im PNG-Format exportiert werden kann.

4-stufige Qualitätssicherung: Vertrauen durch Systematik

Explainable AI erfordert mehr als visuelle Darstellung. KLAGMA implementiert eine 4-stufige Qualitätssicherung, die Fehler auf jeder Ebene abfängt:

Stufe Bezeichnung Funktion Ergebnis bei Fehler
1 Informationsprüfung Sind alle erforderlichen Vertragsdaten vollständig und konsistent? Rückfrage an den Anwender
2 Analyse Durchlauf aller Prüfschritte im Flowchart mit Quellenreferenzen Markierung unsicherer Verzweigungen
3 Validierung Cross-Check der Ergebnisse gegen bekannte Fallmuster und Judikatur Widerspruchshinweis mit Alternative
4 Retry Bei Inkonsistenzen: erneuter Durchlauf mit adjustierten Parametern Eskalation an menschlichen Prüfer

Das System liefert keine Ergebnisse, die es nicht validieren kann. Wenn die Qualitätssicherung eine Inkonsistenz identifiziert, wird der Prüfer transparent darauf hingewiesen — inklusive der Empfehlung, den konkreten Punkt manuell zu verifizieren. Das ist keine Schwäche; das ist verantwortungsvoller KI-Einsatz.

Regulatorische Konformität: AI Act und DSGVO

Die Flowchart-basierte Architektur von KLAGMA ist nicht nur ein technisches Design-Pattern — sie ist eine bewusste regulatorische Entscheidung. Der AI Act der EU klassifiziert KI-Systeme nach Risikoklassen. Legal-Tech-Anwendungen, die juristische Einschätzungen generieren, fallen in die Kategorie der hochriskanten Systeme. Für diese gelten verschärfte Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht.

Wie KLAGMA die regulatorischen Anforderungen erfüllt

  • AI Act Art. 50 (Transparenz): Jede Analyse enthält einen vollständigen Entscheidungsbaum mit Quellenangaben. Der Nutzer weiß jederzeit, dass er mit einem KI-System interagiert.
  • DSGVO Art. 22 (Keine rein automatisierten Entscheidungen): KLAGMA trifft keine eigenständigen Entscheidungen. Es liefert eine strukturierte Analyse, die der Anwalt als Entscheidungsgrundlage nutzt.
  • Dokumentationspflicht: Alle Prüfschritte, Eingaben und Ergebnisse werden revisionssicher dokumentiert.
  • Menschliche Aufsicht: Der letzte Prüfschritt ist immer die anwaltliche Validierung. KLAGMA ersetzt nicht den Anwalt — es macht ihn effizienter.

Skalierung: Von 30-60 Minuten manueller Prüfung zu Sekunden

Die manuelle Prüfung eines Kreditvertrags auf anfechtbare Gebühren dauert im Durchschnitt 30 bis 60 Minuten — vorausgesetzt, der prüfende Anwalt ist mit der aktuellen OGH-Judikatur vertraut. Bei 50 Verträgen pro Monat bindet das 25 bis 50 Stunden qualifizierte Anwaltszeit.

KLAGMA reduziert den manuellen Anteil auf die Validierung der KI-Analyse — typischerweise 5 bis 10 Minuten pro Vertrag. Die Zeitersparnis ist erheblich, aber der eigentliche Hebel liegt in der Skalierbarkeit: Eine Kanzlei, die bisher 50 Verträge pro Monat prüfen konnte, kann mit KLAGMA 200 oder mehr bearbeiten — ohne zusätzliches Personal.

ROI-Berechnung für Kanzleien: 50 Verträge/Monat

Position Ohne KLAGMA Mit KLAGMA
Zeitaufwand pro Vertrag 30–60 Min. 5–10 Min. (Validierung)
Kapazität (50 Verträge) 25–50 Std./Monat 4–8 Std./Monat
Anwaltskosten (intern) €6.250–12.500 €1.000–2.000
Durchschnittlicher Erlös (50 Fälle) €15.000–37.500 (abhängig von Gebührenvolumen)
Netto-Marge €2.500–25.000 €10.531–31.531

Der ROI von Explainable AI in der Rechtsanalyse ist dreifach: niedrigere Kosten, höhere Kapazität und — entscheidend — minimiertes Haftungsrisiko durch dokumentierte Nachvollziehbarkeit.

White-Label: Explainable AI unter eigener Marke

KLAGMA steht Kanzleien nicht nur als SaaS-Lösung zur Verfügung, sondern auch als White-Label-Integration. Die Flowchart-basierte Analyse kann unter der Marke der Kanzlei an Mandanten ausgespielt werden — inklusive der visuellen Darstellung des Entscheidungsbaums. Für Kanzleien, die sich als innovativ und technologieaffin positionieren möchten, ist das ein Differenzierungsmerkmal.

Die White-Label-Integration umfasst dabei nicht nur das visuelle Branding. Kanzleien können die Prüflogik um kanzleispezifische Kriterien erweitern — etwa interne Annahmerichtlinien, Mindeststreitwerte oder bevorzugte Gerichtsstände. Der Flowchart wird entsprechend erweitert, die Entscheidungslogik bleibt vollständig transparent. Das Ergebnis: Ein maßgeschneidertes Analysetool, das die Expertise der Kanzlei digitalisiert, ohne sie in einer Black Box zu verstecken.

Vergleich: Generische LLM-Analyse vs. KLAGMA-Flowchart

Um den Unterschied greifbar zu machen, betrachten wir denselben Anwendungsfall — eine Kreditbearbeitungsgebühr aus 2015 — in beiden Ansätzen:

Kriterium Generisches LLM (z.B. ChatGPT) KLAGMA Flowchart
Ausgabeformat Freitext, 2–3 Absätze Strukturierter Entscheidungsbaum + PNG
Nachvollziehbarkeit Nicht gegeben — keine Prüfschritte sichtbar Jeder Schritt dokumentiert mit Quellen
Quellenangaben Häufig halluziniert oder veraltet Verifizierte OGH-Entscheidungsnummern
Reproduzierbarkeit Variiert bei jedem Durchlauf Deterministische Logik, konsistente Ergebnisse
Gerichtsverwertbarkeit Nicht gegeben Als Arbeitsdokumentation nutzbar
AI-Act-Konformität Fraglich Designed for Compliance

Der Vergleich zeigt: Für unverbindliche Ersteinschätzungen mag ein generisches LLM genügen. Für professionelle Rechtsanalysen, die Haftungsrisiken minimieren und regulatorische Anforderungen erfüllen müssen, führt kein Weg an Explainable AI vorbei.

Fazit: Transparenz ist kein Nice-to-have

Im juristischen Kontext ist Explainable AI keine optionale Eigenschaft — sie ist eine Grundvoraussetzung. Wer KI in der Rechtsanalyse einsetzt, ohne den Entscheidungsweg transparent zu machen, handelt nicht nur fahrlässig, sondern potenziell rechtswidrig.

KLAGMAs Flowchart-basierter Ansatz zeigt, dass Transparenz und Effizienz kein Widerspruch sind. Im Gegenteil: Gerade weil jeder Prüfschritt explizit durchlaufen und dokumentiert wird, können Fehler systematisch erkannt und korrigiert werden. Das Ergebnis ist nicht nur eine schnellere Analyse — es ist eine bessere Analyse. Und eine, die vor Gericht Bestand hat.

Fachbegriffe in diesem Artikel

Explainable AI — KI-Systeme, deren Entscheidungsprozesse für Menschen nachvollziehbar und interpretierbar sind.
Flowchart — Grafische Darstellung eines Entscheidungsbaums, die jeden Prüfschritt und jede Verzweigung visuell nachvollziehbar macht.
DSGVO Art. 22 — Recht natürlicher Personen, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.
AI Act Art. 50 — EU-Transparenzpflichten für KI-Systeme, die mit Menschen interagieren.
Black Box — System, dessen interne Funktionsweise nicht einsehbar oder nachvollziehbar ist.
Qualitätssicherung — Systematische Maßnahmen zur Überprüfung und Sicherstellung der Ergebnisqualität.
White-Label — Produkt ohne Herstellermarke, das der Vertriebspartner unter eigenem Namen anbieten kann.

Nachvollziehbare KI für Ihre Kanzlei

Erfahren Sie, wie KLAGMA transparente Rechtsanalysen liefert, die vor Gericht Bestand haben — und Ihre Kanzlei skalierbar machen.