Die Kernfrage
Jede Kanzlei mit Anfragevolumen stellt irgendwann die Frage: Reichen einfache Routing-Regeln oder brauchen wir KI-Screening?
Die Antwort ist nicht „KI ist besser" oder „Regeln reichen". Die Antwort hängt ab von: Volumen, Datenqualität und Toleranz für Fehlzuordnungen.
Was Routing-Regeln tatsächlich tun
Routing-Regeln sind deterministisch: WENN Bedingung DANN Aktion.
Beispiel:
- WENN rechtsgebiet = „Arbeitsrecht" UND dringlichkeit = „hoch" DANN Route zu Partner A
- WENN quelle = „Empfehlung" DANN priorität = hoch
- WENN streitwert > 100000 DANN Route zu Senior-Team
Stärken:
- Vorhersagbares Verhalten jedes Mal
- Leicht gegenüber Partnern zu erklären
- Keine Trainingsdaten erforderlich
- Funktioniert ab Tag 1
- Einfach zu prüfen und anzupassen
Schwächen:
- Kann Nuancen in Freitextbeschreibungen nicht verarbeiten
- Erfordert gut strukturierte Eingabefelder
- Versagt bei unvollständigen oder chaotischen Daten
- Neue Bedingungen hinzufügen = manuelle Arbeit
Was KI-Screening tatsächlich tut
KI-Screening nutzt maschinelles Lernen, um Anfragen basierend auf Mustern in historischen Daten zu klassifizieren.
Was es erkennen kann:
- Rechtsgebiet aus unstrukturierten Fallbeschreibungen
- Dringlichkeitssignale in der Sprache (Fristen erwähnt, emotionale Belastung)
- Qualitätsindikatoren (Detailgrad, Kohärenz, Spam-Muster)
- Potenzielle Konflikte (Entity Recognition)
Stärken:
- Verarbeitet chaotische, unstrukturierte Eingaben
- Verbessert sich mit mehr Daten
- Erkennt Muster, die Menschen übersehen
- Skaliert ohne zusätzliche Regeln
Schwächen:
- Erfordert Trainingsdaten (mindestens Hunderte gelabelte Beispiele)
- Black-Box-Problem: schwer, einzelne Entscheidungen zu erklären
- Kann selbstbewusst falsch liegen
- Braucht laufendes Monitoring und Retraining
- Höhere Implementierungskosten
Entscheidungsrahmen: 5 Fragen
Frage 1: Wie hoch ist euer monatliches Anfragevolumen?
| Volumen | Empfehlung |
|---|---|
| < 50/Monat | Nur Regeln. KI-Overhead nicht gerechtfertigt. |
| 50-200/Monat | Regeln zuerst, KI für spezifische Pain Points erwägen. |
| > 200/Monat | KI-Screening liefert wahrscheinlich ROI. |
Frage 2: Wie strukturiert ist euer Intake-Formular?
| Datenqualität | Empfehlung |
|---|---|
| Dropdown-lastig, wenig Freitext | Regeln funktionieren gut. |
| Mix aus strukturiert + Freitext | KI für Freitext-Klassifizierung erwägen. |
| Hauptsächlich Freitextbeschreibungen | KI übertrifft Regeln deutlich. |
Frage 3: Habt ihr historische Daten?
KI braucht Trainingsbeispiele. Wenn ihr habt:
- < 100 gelabelte historische Anfragen: Mit Regeln starten
- 100-500 gelabelte Beispiele: KI möglich, aber eingeschränkt
500 gelabelte Beispiele: KI kann effektiv sein
Keine historischen Daten? Regeln sind eure einzige Option, bis ihr einen Datensatz aufbaut.
Frage 4: Wie teuer sind Routing-Fehler?
| Fehlerkosten | Empfehlung |
|---|---|
| Niedrig (einfache Neuzuweisung) | KI akzeptabel, Fehler werden korrigiert |
| Mittel (Verzögerungen, Mandanten-Frustration) | Regeln für High-Stakes, KI für Triage |
| Hoch (verpasste Fristen, Haftungsrisiko) | Regeln mit Human Review, KI nur als Unterstützung |
Frage 5: Wie ist eure technische Kapazität?
| Technische Ressourcen | Empfehlung |
|---|---|
| Keine dedizierte IT | Regeln in bestehenden Tools (CRM, Kanzleisoftware) |
| Etwas technischer Support | Low-Code KI-Tools mit Regeln-Fallback erwägen |
| Starkes technisches Team | Custom KI-Modelle möglich |
Der Hybrid-Ansatz (meist am besten)
Die meisten Kanzleien profitieren von einer Kombination:
Ebene 1: Deterministische Regeln (läuft immer zuerst)
- Bekannte Empfehlungsquellen direkt routen
- High-Value-Mandate basierend auf expliziten Indikatoren flaggen
- Rechtsgebiet-Routing aus Dropdown-Auswahl anwenden
- Compliance-Regeln durchsetzen (Konflikte, Zuständigkeit)
Ebene 2: KI-Screening (für uneindeutige Fälle)
- Rechtsgebiet aus Freitext-Beschreibungen klassifizieren
- Dringlichkeitssignale in Sprache erkennen
- Lead-Qualität scoren
- Routing vorschlagen, wenn Regeln nicht entscheiden können
Ebene 3: Human Review (für Grenzfälle)
- KI-Konfidenz unter Schwellenwert
- High-Stakes-Mandate
- Neue Falltypen
- Potenzielle Konflikte geflaggt
Implementierungsreihenfolge:
- Mit Regeln starten, die 60-70% der Fälle abdecken
- Identifizieren, wo Regeln versagen oder Engpässe entstehen
- KI für diese spezifischen Lücken hinzufügen
- Beide überwachen und verfeinern
Bewährte Muster
Muster A: Regeln + KI-Triage
- Regeln übernehmen eindeutiges Routing
- KI scored Lead-Qualität für Follow-up-Priorisierung
- Mensch reviewt KI-geflaggte Grenzfälle
Muster B: KI zuerst, Regeln überschreiben
- KI klassifiziert alle eingehenden Anfragen
- Regeln überschreiben KI für spezifische Bedingungen (VIP-Quellen, Compliance)
- Reduziert manuelle Arbeit bei Beibehaltung der Kontrolle
Muster C: Parallele Verarbeitung
- Regeln und KI verarbeiten jede Anfrage
- Diskrepanzen werden für Human Review geflaggt
- Nützlich während der KI-Testphase
Red Flags: Wenn KI oversold wird
Seid skeptisch, wenn ein Anbieter verspricht:
„Unsere KI erledigt alles automatisch"
Realität: Ihr braucht trotzdem Fallback-Regeln und Human Review.
„Keine Trainingsdaten erforderlich"
Realität: Generische Modelle funktionieren schlecht für Legal Intake. Eure Daten sind anders.
„100% Genauigkeit"
Realität: Kein Klassifizierungssystem ist 100% genau. Was zählt, ist Fehlerbehandlung.
„Einmal einrichten und vergessen"
Realität: KI-Modelle degradieren über Zeit. Laufendes Monitoring ist erforderlich.
Implementierungs-Checkliste
Für regelbasiertes Routing
- Alle Routing-Szenarien mappen (wer bearbeitet was)
- Klare Bedingungen definieren (keine Mehrdeutigkeit)
- Eskalationspfade für nicht-gematchte Fälle bauen
- Mit historischen Daten testen
- Alle Regeln für Wartung dokumentieren
- Monitoring für nicht-geroutete Anfragen einrichten
Für KI-Screening
- Historische Datenqualität prüfen
- Klassifizierungskategorien definieren
- Trainingsdaten labeln (min. 100+ Beispiele pro Kategorie)
- Konfidenz-Schwellenwerte setzen
- Fallback zu Regeln für Low-Confidence-Fälle bauen
- Laufendes Retraining planen
- Modellverhalten für Compliance dokumentieren
Kostenvergleich
| Faktor | Nur Regeln | KI-Screening |
|---|---|---|
| Setup-Kosten | Niedrig | Mittel-Hoch |
| Laufende Wartung | Manuelle Regel-Updates | Modell-Monitoring + Retraining |
| Skalierbarkeit | Linear (mehr Regeln = mehr Arbeit) | Sublinear (Modell handhabt Komplexität) |
| Fehlerkosten | Vorhersagbar | Kann überraschend sein |
| Erklärbarkeit | Hoch | Niedriger |
Nächster Schritt
Vor der Entscheidung für KI diese Fragen beantworten:
- Welcher Prozentsatz der Anfragen wird von aktuellen Regeln korrekt bearbeitet?
- Wo genau versagen Regeln?
- Habt ihr historische Daten, um KI zu trainieren?
- Wie hoch ist eure Toleranz für KI-Fehler?
Wenn Regeln 80%+ korrekt bearbeiten und ihr keine Trainingsdaten habt: Regeln zuerst optimieren.
Wenn Regeln bei Freitext-Klassifizierung scheitern und ihr Daten habt: KI für diese spezifische Lücke explorieren.