Ein Kreditvertrag aus 2014 enthält eine Bearbeitungsgebühr von 1,5%. Ist sie rechtswidrig? Die Antwort scheint einfach — doch sie ist es nicht. Ob eine Kreditbearbeitungsgebühr anfechtbar ist, hängt von einem Geflecht aus Vertragstyp, Abschlussdatum, Verjährungsfristen, OGH-Judikatur und individuellen Vertragsklauseln ab. Ein einfaches „Ja" oder „Nein" greift zu kurz. Was Kanzleien brauchen, ist der Weg zur Antwort — nicht nur die Antwort selbst.
„Vor Gericht zählt nicht, was eine KI empfiehlt. Es zählt, wie sie zu dieser Empfehlung gekommen ist. Ohne Nachvollziehbarkeit ist jede KI-Analyse wertlos."
Warum Black-Box-KI vor Gericht nicht taugt
Generative KI-Systeme wie ChatGPT oder Claude produzieren beeindruckend formulierte Texte. Doch sie haben ein fundamentales Problem: Sie können nicht erklären, warum sie zu einem bestimmten Ergebnis kommen. Im juristischen Kontext ist das ein Ausschlusskriterium. Ein Anwalt, der vor Gericht auf eine Black Box-KI verweist, riskiert nicht nur den Prozess — er riskiert seine Berufshaftung.
Die regulatorischen Anforderungen verstärken dieses Problem: AI Act Art. 50 der EU verlangt Transparenzpflichten für KI-Systeme, die mit Menschen interagieren. DSGVO Art. 22 untersagt rein automatisierte Entscheidungen, die rechtliche Wirkung entfalten. Für Legal Tech bedeutet das: KI darf unterstützen, aber nicht entscheiden — und der Weg zur Unterstützung muss nachvollziehbar sein.
KLAGMAs Ansatz: Flowchart-basierte Entscheidungslogik
KLAGMA verfolgt einen fundamental anderen Ansatz als generische KI-Tools. Statt ein LLM eine freie Textantwort generieren zu lassen, implementiert KLAGMA eine Flowchart-basierte Entscheidungslogik: Jeder fachliche Prüfschritt wird systematisch und in definierter Reihenfolge durchlaufen.
Die Prüfschritte im OGH-Kreditgebühren-Kontext
Am Beispiel der Kreditbearbeitungsgebühren durchläuft KLAGMA folgende Prüfkaskade:
- Vertragstyp-Identifikation: Handelt es sich um einen Verbraucher- oder Unternehmerkredit? (Nur Verbraucherkredite sind relevant.)
- Gebührentyp-Klassifikation: Liegt eine Bearbeitungsgebühr, Kontoführungsgebühr oder sonstige Gebühr vor?
- Datum-basierte Judikatur-Zuordnung: Welche OGH-Entscheidung ist einschlägig? (Die Rechtsprechung hat sich seit 2012 mehrfach geändert.)
- Verjährungsprüfung: Ist der Anspruch noch durchsetzbar? (30 Jahre bereicherungsrechtlich vs. 3 Jahre vertragliche Verjährung.)
- Klauselprüfung: Ist die konkrete Vertragsklausel nach aktuellem Rechtsstand anfechtbar?
- Rückforderungsberechnung: Welcher Betrag kann zurückgefordert werden?
Jeder dieser Schritte wird explizit dokumentiert — mit dem Ergebnis, den herangezogenen Rechtsquellen und der Begründung für die Verzweigung. Das Resultat ist kein Freitext, sondern ein strukturierter Entscheidungsbaum, der als visuelles Flowchart im PNG-Format exportiert werden kann.
4-stufige Qualitätssicherung: Vertrauen durch Systematik
Explainable AI erfordert mehr als visuelle Darstellung. KLAGMA implementiert eine 4-stufige Qualitätssicherung, die Fehler auf jeder Ebene abfängt:
| Stufe | Bezeichnung | Funktion | Ergebnis bei Fehler |
|---|---|---|---|
| 1 | Informationsprüfung | Sind alle erforderlichen Vertragsdaten vollständig und konsistent? | Rückfrage an den Anwender |
| 2 | Analyse | Durchlauf aller Prüfschritte im Flowchart mit Quellenreferenzen | Markierung unsicherer Verzweigungen |
| 3 | Validierung | Cross-Check der Ergebnisse gegen bekannte Fallmuster und Judikatur | Widerspruchshinweis mit Alternative |
| 4 | Retry | Bei Inkonsistenzen: erneuter Durchlauf mit adjustierten Parametern | Eskalation an menschlichen Prüfer |
Das System liefert keine Ergebnisse, die es nicht validieren kann. Wenn die Qualitätssicherung eine Inkonsistenz identifiziert, wird der Prüfer transparent darauf hingewiesen — inklusive der Empfehlung, den konkreten Punkt manuell zu verifizieren. Das ist keine Schwäche; das ist verantwortungsvoller KI-Einsatz.
Regulatorische Konformität: AI Act und DSGVO
Die Flowchart-basierte Architektur von KLAGMA ist nicht nur ein technisches Design-Pattern — sie ist eine bewusste regulatorische Entscheidung. Der AI Act der EU klassifiziert KI-Systeme nach Risikoklassen. Legal-Tech-Anwendungen, die juristische Einschätzungen generieren, fallen in die Kategorie der hochriskanten Systeme. Für diese gelten verschärfte Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht.
Wie KLAGMA die regulatorischen Anforderungen erfüllt
- AI Act Art. 50 (Transparenz): Jede Analyse enthält einen vollständigen Entscheidungsbaum mit Quellenangaben. Der Nutzer weiß jederzeit, dass er mit einem KI-System interagiert.
- DSGVO Art. 22 (Keine rein automatisierten Entscheidungen): KLAGMA trifft keine eigenständigen Entscheidungen. Es liefert eine strukturierte Analyse, die der Anwalt als Entscheidungsgrundlage nutzt.
- Dokumentationspflicht: Alle Prüfschritte, Eingaben und Ergebnisse werden revisionssicher dokumentiert.
- Menschliche Aufsicht: Der letzte Prüfschritt ist immer die anwaltliche Validierung. KLAGMA ersetzt nicht den Anwalt — es macht ihn effizienter.
Skalierung: Von 30-60 Minuten manueller Prüfung zu Sekunden
Die manuelle Prüfung eines Kreditvertrags auf anfechtbare Gebühren dauert im Durchschnitt 30 bis 60 Minuten — vorausgesetzt, der prüfende Anwalt ist mit der aktuellen OGH-Judikatur vertraut. Bei 50 Verträgen pro Monat bindet das 25 bis 50 Stunden qualifizierte Anwaltszeit.
KLAGMA reduziert den manuellen Anteil auf die Validierung der KI-Analyse — typischerweise 5 bis 10 Minuten pro Vertrag. Die Zeitersparnis ist erheblich, aber der eigentliche Hebel liegt in der Skalierbarkeit: Eine Kanzlei, die bisher 50 Verträge pro Monat prüfen konnte, kann mit KLAGMA 200 oder mehr bearbeiten — ohne zusätzliches Personal.
ROI-Berechnung für Kanzleien: 50 Verträge/Monat
| Position | Ohne KLAGMA | Mit KLAGMA |
|---|---|---|
| Zeitaufwand pro Vertrag | 30–60 Min. | 5–10 Min. (Validierung) |
| Kapazität (50 Verträge) | 25–50 Std./Monat | 4–8 Std./Monat |
| Anwaltskosten (intern) | €6.250–12.500 | €1.000–2.000 |
| Durchschnittlicher Erlös (50 Fälle) | €15.000–37.500 (abhängig von Gebührenvolumen) | |
| Netto-Marge | €2.500–25.000 | €10.531–31.531 |
Der ROI von Explainable AI in der Rechtsanalyse ist dreifach: niedrigere Kosten, höhere Kapazität und — entscheidend — minimiertes Haftungsrisiko durch dokumentierte Nachvollziehbarkeit.
White-Label: Explainable AI unter eigener Marke
KLAGMA steht Kanzleien nicht nur als SaaS-Lösung zur Verfügung, sondern auch als White-Label-Integration. Die Flowchart-basierte Analyse kann unter der Marke der Kanzlei an Mandanten ausgespielt werden — inklusive der visuellen Darstellung des Entscheidungsbaums. Für Kanzleien, die sich als innovativ und technologieaffin positionieren möchten, ist das ein Differenzierungsmerkmal.
Die White-Label-Integration umfasst dabei nicht nur das visuelle Branding. Kanzleien können die Prüflogik um kanzleispezifische Kriterien erweitern — etwa interne Annahmerichtlinien, Mindeststreitwerte oder bevorzugte Gerichtsstände. Der Flowchart wird entsprechend erweitert, die Entscheidungslogik bleibt vollständig transparent. Das Ergebnis: Ein maßgeschneidertes Analysetool, das die Expertise der Kanzlei digitalisiert, ohne sie in einer Black Box zu verstecken.
Vergleich: Generische LLM-Analyse vs. KLAGMA-Flowchart
Um den Unterschied greifbar zu machen, betrachten wir denselben Anwendungsfall — eine Kreditbearbeitungsgebühr aus 2015 — in beiden Ansätzen:
| Kriterium | Generisches LLM (z.B. ChatGPT) | KLAGMA Flowchart |
|---|---|---|
| Ausgabeformat | Freitext, 2–3 Absätze | Strukturierter Entscheidungsbaum + PNG |
| Nachvollziehbarkeit | Nicht gegeben — keine Prüfschritte sichtbar | Jeder Schritt dokumentiert mit Quellen |
| Quellenangaben | Häufig halluziniert oder veraltet | Verifizierte OGH-Entscheidungsnummern |
| Reproduzierbarkeit | Variiert bei jedem Durchlauf | Deterministische Logik, konsistente Ergebnisse |
| Gerichtsverwertbarkeit | Nicht gegeben | Als Arbeitsdokumentation nutzbar |
| AI-Act-Konformität | Fraglich | Designed for Compliance |
Der Vergleich zeigt: Für unverbindliche Ersteinschätzungen mag ein generisches LLM genügen. Für professionelle Rechtsanalysen, die Haftungsrisiken minimieren und regulatorische Anforderungen erfüllen müssen, führt kein Weg an Explainable AI vorbei.
Fazit: Transparenz ist kein Nice-to-have
Im juristischen Kontext ist Explainable AI keine optionale Eigenschaft — sie ist eine Grundvoraussetzung. Wer KI in der Rechtsanalyse einsetzt, ohne den Entscheidungsweg transparent zu machen, handelt nicht nur fahrlässig, sondern potenziell rechtswidrig.
KLAGMAs Flowchart-basierter Ansatz zeigt, dass Transparenz und Effizienz kein Widerspruch sind. Im Gegenteil: Gerade weil jeder Prüfschritt explizit durchlaufen und dokumentiert wird, können Fehler systematisch erkannt und korrigiert werden. Das Ergebnis ist nicht nur eine schnellere Analyse — es ist eine bessere Analyse. Und eine, die vor Gericht Bestand hat.