Das Problem: Alles fühlt sich wichtig an
Jede Kanzlei hat Dutzende Prozesse die automatisiert werden könnten. Intake, Abrechnung, Dokumentenerstellung, Mandantenkommunikation, Compliance-Tracking, Kalendermanagement.
Die Falle: Versuchen alles auf einmal zu automatisieren. Ergebnis: Nichts wird richtig gemacht.
Use-Case Scoring löst das durch erzwungene Priorisierung. Ihr bewertet jede potenzielle Automatisierung gegen objektive Kriterien und wählt die wertvollsten Ziele zuerst.
Das Scoring-Framework
Bewertet jede potenzielle Automatisierung auf vier Dimensionen:
| Dimension | Frage | Score-Bereich |
|---|---|---|
| Impact | Wie viel Zeit/Geld spart das? | 1-5 |
| Machbarkeit | Wie schwer ist die Implementierung? | 1-5 |
| Risiko | Was passiert bei Ausfall? | 1-5 (invertiert: 5 = niedriges Risiko) |
| Strategischer Fit | Passt das zu Kanzlei-Prioritäten? | 1-5 |
Gesamtscore = Impact + Machbarkeit + Risiko + Strategischer Fit
Maximum möglich: 20 Punkte. Minimale Schwelle für Aktion: 12 Punkte.
Dimension 1: Impact
Impact misst den durch Automatisierung geschaffenen Wert. Berücksichtigt sowohl Zeitersparnis als auch Business-Wert.
Zeitersparnis-Berechnung
Formel:
Wöchentliche Stunden gespart = (Aktuelle Zeit pro Task) × (Tasks pro Woche) × (Automatisierungs-Abdeckung %)
Beispiel: Mandanten-Intake-Routing
- Aktuell: 15 Minuten pro Anfrage zum Prüfen und Routen
- Volumen: 40 Anfragen pro Woche
- Automatisierungs-Abdeckung: 80% (20% brauchen manuelle Prüfung)
- Wöchentliche Ersparnis: 0,25 Stunden × 40 × 0,80 = 8 Stunden/Woche
Impact-Scoring-Guide
| Score | Kriterien |
|---|---|
| 5 | >10 Stunden/Woche gespart ODER direkter Umsatz-Impact |
| 4 | 5-10 Stunden/Woche gespart |
| 3 | 2-5 Stunden/Woche gespart |
| 2 | 1-2 Stunden/Woche gespart |
| 1 | <1 Stunde/Woche gespart |
Über Zeit hinaus: Business-Wert
Manche Automatisierungen haben Impact jenseits von Zeitersparnis:
- Verbesserung Mandantenerlebnis (schnellere Antwort, weniger Fehler)
- Compliance-Risiko-Reduktion
- Kapazität für Wachstum ohne Einstellung
- Wettbewerbsdifferenzierung
Diese in den Impact-Score einbeziehen wenn relevant.
Dimension 2: Machbarkeit
Machbarkeit misst Implementierungs-Schwierigkeit. Niedrigere Schwierigkeit = höherer Score.
Machbarkeits-Faktoren
Datenverfügbarkeit:
- Sind die Daten strukturiert und zugänglich?
- Gibt es APIs oder Integrationen?
- Ist die Datenqualität ausreichend?
Prozessklarheit:
- Ist der aktuelle Prozess dokumentiert?
- Gibt es klare Regeln oder ist es urteilsbasiert?
- Wie viele Ausnahmen existieren?
Technische Anforderungen:
- Welche Systeme müssen verbunden werden?
- Sind Credentials und Zugang verfügbar?
- Wie hoch ist die technische Komplexität?
Organisatorische Readiness:
- Gibt es Stakeholder-Buy-in?
- Wer wird den Workflow ownen?
- Gibt es Kapazität zur Implementierung?
Machbarkeits-Scoring-Guide
| Score | Kriterien |
|---|---|
| 5 | Einfache Integration, klare Regeln, Daten bereit, Buy-in existiert |
| 4 | Moderate Komplexität, kleinere Datenarbeit nötig |
| 3 | Mehrere Systeme, einige Ermessensentscheidungen, braucht Stakeholder-Alignment |
| 2 | Komplexe Logik, signifikante Datenarbeit, organisatorischer Widerstand |
| 1 | Hoch komplex, schlechte Datenqualität, kein klarer Prozess, kein Buy-in |
Dimension 3: Risiko
Risiko misst Konsequenzen von Ausfällen. Dieser Score ist invertiert: niedrigeres Risiko = höherer Score.
Risiko-Kategorien
Operatives Risiko:
- Was passiert wenn der Workflow stillschweigend ausfällt?
- Wie schnell würdet ihr ein Problem erkennen?
- Was ist der Blast Radius von Fehlern?
Compliance-Risiko:
- Berührt das regulierte Daten?
- Gibt es berufsrechtliche Implikationen?
- Was sind die Audit-Anforderungen?
Mandanten-Impact-Risiko:
- Könnten Fehler Mandate beeinflussen?
- Gibt es Reputationsrisiko?
- Was ist der Recovery-Pfad aus Fehlern?
Risiko-Scoring-Guide
| Score | Kriterien |
|---|---|
| 5 | Nur interner Prozess, Fehler leicht erkennbar, einfacher Rollback |
| 4 | Begrenzte externe Exposition, Monitoring fängt Issues schnell |
| 3 | Einige Mandanten-Touchpoints, moderate Erkennungsschwierigkeit |
| 2 | Direkter Mandanten-Impact, Compliance-Implikationen, schwer zu erkennen |
| 1 | Hohes Compliance-Risiko, signifikante Mandanten-Exposition, schwer zu recovern |
Risiko-Mitigation
Niedrige Risiko-Scores disqualifizieren keine Automatisierung. Sie signalisieren Bedarf an mehr Safeguards.
Für High-Risk-Automatisierungen:
- Menschliche Genehmigungsschritte vor externen Aktionen
- Erweitertes Monitoring und Alerting
- Umfassendes Audit-Logging
- Gradueller Rollout mit enger Überwachung
Dimension 4: Strategischer Fit
Strategischer Fit misst Alignment mit Kanzlei-Prioritäten und -Richtung.
Strategische Überlegungen
Kanzlei-Prioritäten:
- Was sind die erklärten Ziele für dieses Jahr?
- Wo liegt der Leadership-Fokus?
- Welche Pain Points werden am meisten diskutiert?
Wachstumstrajektorie:
- Wird dieser Prozess mit Wachstum skalieren?
- Ermöglicht Automatisierung Expansion?
- Ist das ein Bottleneck für Wachstum?
Wettbewerbsposition:
- Haben Wettbewerber das automatisiert?
- Ist das ein Differenziator?
- Verbessert das die Marktposition?
Strategischer-Fit-Scoring-Guide
| Score | Kriterien |
|---|---|
| 5 | Direktes Alignment mit Top-Kanzlei-Prioritäten, Leadership-Champion |
| 4 | Unterstützt erklärte Kanzlei-Ziele, generelle Unterstützung |
| 3 | Neutrales Alignment, keine Opposition |
| 2 | Tangential zu Prioritäten, begrenztes Interesse |
| 1 | Misaligned mit Richtung, aktiver Widerstand |
Scoring in der Praxis: Beispiele
Beispiel 1: Neumandanten-Intake-Routing
| Dimension | Score | Begründung |
|---|---|---|
| Impact | 4 | 8 Stunden/Woche gespart, schnellere Mandanten-Response |
| Machbarkeit | 4 | Webformular-Daten strukturiert, klare Routing-Regeln |
| Risiko | 4 | Internes Routing, Fehler schnell erkannt |
| Strategischer Fit | 5 | Kanzlei-Priorität: Mandantenerlebnis verbessern |
| Gesamt | 17 | Hohe Priorität |
Beispiel 2: Automatisierte Recherche-Zusammenfassung
| Dimension | Score | Begründung |
|---|---|---|
| Impact | 5 | Signifikante Zeitersparnis, hochwertige Aufgabe |
| Machbarkeit | 2 | KI-Qualität unsicher, urteilsintensiv |
| Risiko | 2 | Direktes Arbeitsprodukt, Haftungsrisiko |
| Strategischer Fit | 3 | Interessant aber keine erklärte Priorität |
| Gesamt | 12 | Grenzwertig - braucht Pilot zuerst |
Beispiel 3: Büromaterial-Bestellung
| Dimension | Score | Begründung |
|---|---|---|
| Impact | 1 | Weniger als 1 Stunde pro Woche gespart |
| Machbarkeit | 5 | Einfacher Prozess, leichte Integration |
| Risiko | 5 | Null Mandanten-Impact |
| Strategischer Fit | 1 | Keine Kanzlei-Priorität |
| Gesamt | 12 | Niedrige Priorität obwohl einfach |
Beispiel 4: Konfliktprüfungs-Automatisierung
| Dimension | Score | Begründung |
|---|---|---|
| Impact | 4 | 5+ Stunden/Woche, schnelleres New-Matter-Opening |
| Machbarkeit | 3 | Komplexe Matching-Logik, mehrere Datenquellen |
| Risiko | 1 | Berufsrechtlich kritisch |
| Strategischer Fit | 5 | Compliance-Priorität, Growth-Enabler |
| Gesamt | 13 | Mittlere Priorität - in Safeguards investieren |
Der Scoring-Prozess
Schritt 1: Kandidaten generieren
Alle Prozesse auflisten die potenziell automatisiert werden könnten. Noch nicht filtern. Einschließen:
- Repetitive manuelle Tasks
- Dateneingabe und -transfer
- Kommunikations-Workflows
- Dokumentenerstellung
- Terminierung und Erinnerungen
- Reporting und Tracking
Schritt 2: Quick Filter
Offensichtliche Non-Starter eliminieren:
- Prozesse die bei jedem Schritt menschliches Urteil erfordern
- Tasks die seltener als einmal pro Woche gemacht werden
- Prozesse ohne klaren Owner
- Tasks wo Automatisierungskosten Lifetime Value übersteigen
Schritt 3: Verbleibende Kandidaten scoren
Für jeden verbleibenden Kandidaten:
- Zeitersparnis schätzen (realistisch, nicht optimistisch)
- Technische und organisatorische Machbarkeit einschätzen
- Risikoprofil bewerten
- Strategisches Alignment prüfen
Schritt 4: Ranken und auswählen
Nach Gesamtscore sortieren. Berücksichtigen:
- Natürliche Gruppierungen (alle Intake vs. alle Billing)
- Abhängigkeiten (A muss vor B passieren)
- Quick Wins vs. strategische Investments
Schritt 5: Top-Kandidaten validieren
Vor dem Committen Top 3-5 Kandidaten validieren:
- Mit Leuten sprechen die die Arbeit heute machen
- Datenqualitäts-Annahmen prüfen
- Stakeholder-Support bestätigen
- Implementierungs-Timeline schätzen
Häufige Scoring-Fehler
Fehler 1: Impact überschätzen
"Das spart Stunden" wird oft zu "das spart 20 Minuten." Konservativ sein. Echte Daten nutzen wo möglich.
Fehler 2: Machbarkeits-Challenges unterschätzen
"Die Daten sind im System" heißt nicht dass die Daten zugänglich, sauber oder im richtigen Format sind.
Fehler 3: Risiko ignorieren
Die spannende Automatisierung mit hohem Impact aber hohem Risiko kann Mandantenbeziehungen beschädigen und Compliance-Issues schaffen.
Fehler 4: Strategischen Fit vergessen
Eine perfekt machbare, impactvolle Automatisierung um die sich niemand kümmert wird nicht adoptiert oder gewartet.
Fehler 5: Einmal scoren
Business-Prioritäten ändern sich. Volumen ändert sich. Technologie ändert sich. Quartalsweise neu scoren.
Template: Use-Case-Scoring-Sheet
| Use Case | Impact (1-5) | Machbarkeit (1-5) | Risiko (1-5) | Strategischer Fit (1-5) | Gesamt | Priorität |
|---|---|---|---|---|---|---|
| [Name] |
Prioritäts-Guide:
- 16-20: Hohe Priorität, sofort starten
- 12-15: Mittlere Priorität, fürs nächste Quartal planen
- 8-11: Niedrige Priorität, später revisiten
- Unter 8: Nicht verfolgen
Nächster Schritt
- 10 potenzielle Automatisierungs-Kandidaten auflisten
- Jeden mit diesem Framework scoren
- Top 3 mit Stakeholdern validieren
- Einen zum Starten auswählen
Das Ziel ist nicht alles zu automatisieren. Das Ziel ist die richtigen Dinge zuerst zu automatisieren.