01 / Engineering-Velocity

Vom Launchen einer Plattform zum taeglichen Shippen.

Schwach 9 / 100. Kritische Maengel

Neue CI/CD-Plattform bis Q3 launchen.

  • Alle Teams auf die neue Plattform migrieren.
  • Build-Zeiten reduzieren.
  • Developer Experience verbessern.

Warum es scheitert

  • Output-als-KR: "Alle Teams migrieren" ist eine Aufgabe, kein Ergebnis. Die Migration ist die Arbeit. Was aendert sich fuer die Teams danach?
  • KR2 hat keine Baseline und kein Ziel. "Reduzieren" um wie viel, von was?
  • KR3 ist nicht messbar. "Developer Experience verbessern" ist eine Hoffnung, kein Ergebnis.
  • Das Objective beinhaltet die Loesung ("CI/CD-Plattform"), statt das Problem zu benennen, das es loesen soll.
Stark 86 / 100. Exzellent

Median-PR-Durchlaufzeit kuerzen, damit Teams bis Ende Q3 taeglich in Produktion shippen koennen.

  • Median-PR-to-Merge-Zeit sinkt von 38h auf unter 8h fuer alle Backend-Services (Quelle: Deployment-Pipeline-Ereignislog, gleitender 4-Wochen-Durchschnitt).
  • Anteil der Services, die mindestens einmal pro Werktag deployen, steigt von 22% auf 70% (Quelle: Deployment-Frequenz pro Repo, woechentlich gemessen).
  • Developer-NPS fuer die Deploy-Pipeline steigt von 14 auf 35 (Quelle: In-Tool-Pulse-Survey, mindestens 80 Antworten pro Zyklus).

Warum es funktioniert

  • Das Objective benennt das Ergebnis (taeglich shippen), nicht das Tool. Die CI/CD-Plattform ist moeglicherweise der Weg dorthin, muss es aber nicht sein.
  • Jedes KR hat eine aktuelle Baseline und ein Ziel, sodass Fortschritt ab Woche eins nachverfolgbar ist.
  • Die drei KRs decken verschiedene Dimensionen ab: Systemgeschwindigkeit, Teamverhalten und Wahrnehmung. Zwei von drei im Gruen und ein Rot signalisiert ein echtes Problem.
In Diagnose laden →

Coach-Hinweis

Das Wort "Plattform" im schwachen Objective ist das erste Signal. Jedes Objective, das ein Lieferobjekt vor einem Problem benennt, hat sich bereits auf eine Loesung festgelegt. Was, wenn der bessere Fix eine Prozessaenderung ist, keine neue Plattform?

02 / User-Aktivierung

Von Signups zu Verhaltensaenderung.

Schwach 8 / 100. Kritische Maengel

Starke Aktivierung fuer neue User in Q3 erzielen.

  • 10.000 neue Signups in Q3 erreichen.
  • 200.000 Onboarding-E-Mails versenden.
  • Neu gestalteten Onboarding-Flow bis 1. August launchen.

Warum es scheitert

  • Vanity Metric: Signups messen Akquisition, nicht Aktivierung. Ein User, der sich anmeldet und nie zurueckkommt, ist ein Signup.
  • Output-als-KR: "200.000 Onboarding-E-Mails versenden" misst eine Aktion deines Teams, keine Verhaltensaenderung der User.
  • Binaerer Meilenstein: "Neu gestalteten Onboarding-Flow launchen" ist bestanden/nicht bestanden. Es sagt dir, ob die Arbeit geliefert wurde, nicht ob sie funktioniert hat.
  • Das Objective sagt "starke Aktivierung", definiert aber kein Aktivierungsereignis.
Stark 88 / 100. Exzellent

Neue User vor Ende ihrer ersten Woche zu ihrer ersten bedeutsamen Handlung fuehren.

  • Anteil neuer User, die innerhalb von 7 Tagen nach Signup eine Kernhandlung durchfuehren (erstellen, verbinden oder einladen), steigt von 19% auf 42% (Quelle: Produkt-Ereignisdaten, woechentliche Kohorte).
  • Median-Zeit von Signup bis zur ersten abgeschlossenen Kernhandlung sinkt von 4,1 Tagen auf unter 18 Stunden (Quelle: Ereignis-Timestamps, Kohorte aller neuen Signups pro Woche).
  • 7-Tage-bis-30-Tage-Retention fuer User, die in Woche eins eine Kernhandlung abgeschlossen haben, steigt von 34% auf 52% (Quelle: Kohorten-Retention-Tabelle, gemessen an Tag 30).

Warum es funktioniert

  • Das Objective definiert "Aktivierung" implizit durch die KRs: eine spezifische Handlung innerhalb eines spezifischen Zeitfensters. Kein Interpretationsspielraum.
  • KR3 verbindet Aktivierung mit nachgelagerter Retention, was validiert, ob das Aktivierungsereignis tatsaechlich Wert vorhersagt.
  • Alle drei KRs sind aus Produkt-Ereignisdaten beobachtbar, ohne Umfrageabhaengigkeit.
In Diagnose laden →

Coach-Hinweis

Versendete E-Mails zu zaehlen ist Aufwand messen, kein Impact. Die Anzahl der E-Mails, die du sendest, kann dir nicht sagen, ob dein Produkt tut, was User brauchen. Beginne mit der Verhaltensaenderung, dann baue den Aktivierungsfunnel rueckwaerts auf.

03 / Customer Support

Von Platzhalter-Qualitaetszielen zu spezifischen Service-Commitments.

Schwach 4 / 100. Kritische Maengel

Qualitaet und Effizienz des Kundensupports verbessern.

  • Kundenzufriedenheitsscores verbessern.
  • Durchschnittliche Loesungszeit reduzieren.
  • First-Contact-Resolution-Rate erhoehen.

Warum es scheitert

  • Alle drei KRs sind Feldnamen ohne Zahlen. Keine Baseline, kein Ziel, keine Datenquelle bei keinem von ihnen.
  • Das Objective ist ein Slogan. "Qualitaet und Effizienz" sind nicht dasselbe, und das Set unterscheidet nicht zwischen ihnen.
  • Diese KRs haetten geschrieben werden koennen, ohne ein einziges Support-Ticket gesehen zu haben. Das ist das Problem.
Stark 90 / 100. Exzellent

Die Mehrzahl der Kundenprobleme loesen, bevor sie eskalieren oder sich wiederholen, bis Ende Q3.

  • Median-Erstantwortzeit fuer Tier-1-Tickets sinkt von 9h auf unter 2h ueber alle Kanaele (Quelle: Zendesk-SLA-Bericht, Geschaeftszeiten Mo.-Fr.).
  • First-Contact-Resolution-Rate fuer Billing- und Account-Zugangs-Tickets steigt von 54% auf 72% (Quelle: Zendesk-Benutzerdefiniertes-Feld, monatliches Aggregat).
  • Post-Resolution-CSAT steigt von 3,6 auf 4,2 auf einer 5-Punkte-Skala fuer Tickets, die mit dem neuen Triage-Workflow bearbeitet wurden, gemessen ueber 8 Wochen mit mindestens 200 Antworten.

Warum es funktioniert

  • Das Objective benennt einen spezifischen Fehler-Modus (Eskalation und Wiederholungskontakte), kein generisches Qualitaetsziel. Diese Rahmung lenkt direkt, welche KRs relevant sind.
  • Jedes KR begrenzt sich praezise: Ticket-Tier, Kategorie, Workflow-Teilmenge und Stichprobenschwelle.
  • Die drei KRs messen Geschwindigkeit, Effektivitaet und Kundenwahrnehmung gemeinsam. Erstantwortzeit verbessern ohne FCR zu verbessern hat das Problem nicht geloest.
In Diagnose laden →

Coach-Hinweis

Die schwache Version scored 4/100, das niedrigste in diesem Set. Dieser Score kommt von drei KRs, die voellig ohne Zahlen sind. "Zufriedenheitscores verbessern" ist kein KR. Es ist ein Spaltenheader, der auf Daten wartet. Schreib die Daten zuerst.

04 / Umsatz

Von Eigentuemerschaft ueber alle Umsaetze zu einem Hebel.

Schwach 6 / 100. Kritische Maengel

Das Geschaeft ausbauen und Umsatz erhoehen in diesem Jahr.

  • Jaehrlich wiederkehrenden Umsatz um 30% erhoehen.
  • In zwei neue Marktsegmente expandieren.
  • Neuen VP of Sales bis Q2 einstellen.

Warum es scheitert

  • Impact-als-KR: "ARR um 30% erhoehen" ist ein unternehmensweites Ergebnis, das kein einzelnes Team kontrolliert.
  • Output-als-KR: "VP of Sales einstellen" ist eine Aufgabe. Sie koennte den Umsatz beeinflussen oder nicht.
  • Das Objective ist eine Tautologie. "Geschaeft ausbauen" bedeutet alles.
  • Keine Baseline bei irgendeinem KR.
Stark 84 / 100. Exzellent

Mehr Testphasen in zahlende Kunden umwandeln, indem die Preisentscheidung einfacher wird.

  • Trial-to-Paid-Conversion-Rate steigt von 8,4% auf 14% fuer Testphasen, die den "Aha-Moment"-Schwellenwert erreichen (Quelle: CRM-Funnel-Daten, 30-Tage-Kohorte).
  • Median-Zeit von Testphasenanfang bis zur ersten Zahlung sinkt von 21 Tagen auf 12 Tage (Quelle: Stripe-Zahlungs-Timestamps verbunden mit Anmeldedatum, monatliche Kohorte).
  • Expansion-MRR von bestehenden Kunden (Upsell und Add-on) steigt von 11% auf 18% des gesamten MRR (Quelle: Stripe-MRR-Aufschluesselung, monatlich gemessen).

Warum es funktioniert

  • Das Objective identifiziert einen spezifischen Hebel (Reibung bei der Preisentscheidung), statt Eigentuemer des gesamten Umsatzes zu sein. Ein Team kann das besitzen.
  • KR1 begrenzt auf User, die bereits den Aha-Moment erreicht haben, was das Konversionsproblem vom Aktivierungsproblem isoliert.
  • KR3 verfolgt Expansion-MRR als Anteil des Gesamt-MRR, nicht als absolute Zahl.
In Diagnose laden →

Coach-Hinweis

Umsatz-OKRs scheitern fast immer am "Kontrolliert das Team das?"-Test. Wenn kein einzelnes Team den ARR kontrolliert, sollte kein einzelnes Team ihn als KR committen. Finde das Verhalten eine Ebene unterhalb des ARR, das dein Team tatsaechlich beeinflusst, dann schreib das OKR darueber.

05 / Retention

Von generischer Churn-Reduzierung zu einem spezifischen Problemfenster.

Schwach 7 / 100. Kritische Maengel

Churn reduzieren und Retention in unserer Kundenbasis verbessern.

  • Churn reduzieren.
  • Woechentlich aktive User verbessern.
  • Customer-Health-Score-Dashboard bis Q2 implementieren.

Warum es scheitert

  • Platzhalter: KR1 hat keine Baseline und kein Ziel. "Churn reduzieren" ist eine Richtung, kein Ergebnis.
  • Vanity Metric: "Woechentlich aktive User verbessern" definiert nicht, was aktiv bedeutet oder wer zaehlt.
  • Binaerer Meilenstein: "Customer-Health-Score-Dashboard implementieren" ist eine Projektaufgabe.
  • Das Objective sagt zweimal dasselbe, ohne Umfang hinzuzufuegen.
Stark 87 / 100. Exzellent

Aufhoeren, Kunden in dem 30-90-Tage-Fenster zu verlieren, wo Deaktivierung zur Kuendigung wird.

  • Monatliche Churn-Rate fuer Kunden in ihren ersten 90 Tagen sinkt von 6,2% auf unter 3% (Quelle: Billing-System-Kuendigungsdaten, Kohorte aller Accounts, die im Messquartal aktiviert wurden).
  • Anteil monatlich aktiver Accounts (mindestens eine Kernfunktion genutzt) in der 30-90-Tage-Kohorte steigt von 41% auf 62% (Quelle: Produkt-Ereignisdaten, woechentlicher Snapshot).
  • Median-Anzahl der Tage zwischen letztem Login und Kuendigung fuer gekuendigte Accounts in der 30-90-Tage-Kohorte steigt von 8 Tagen auf mindestens 22 Tage (Quelle: Produkt-Ereignislog verbunden mit Kuendigungsdatum).

Warum es funktioniert

  • Das Objective pinpointet das Problemfenster (30-90 Tage), statt Churn als ein einziges, undifferenziertes Problem zu behandeln. Tag-1-Churn und Tag-300-Churn haben voellig unterschiedliche Ursachen.
  • KR3 misst das Fruehwarn-Signal (Abstand zwischen letztem Login und Kuendigung), statt dem nachlaufenden Ergebnis. Ein Team, das diesen Abstand vergroessert, hat mehr Zeit zum Eingreifen.
  • Alle drei KRs begrenzen auf dieselbe Kohorte, sodass sie sich gegenseitig verstaerken und eine kohaerente Geschichte erzaehlen.
In Diagnose laden →

Coach-Hinweis

Churn hat eine Form. Frueh-Churn ist ein Aktivierungsproblem. Mitte-Churn ist ein Engagement-Problem. Spaet-Churn ist ein Wertproblem. Sie als eines zu behandeln produziert OKRs, die nicht handlungsleitend sind. Scope das Problemfenster zuerst, dann schreib die KRs.

06 / Produktqualitaet

Von Bugs fixen zu Qualitaet unsichtbar machen.

Schwach 8 / 100. Kritische Maengel

Qualitaet und Zuverlaessigkeit des Produkts verbessern.

  • Alle kritischen Bugs beheben.
  • 99% Uptime erreichen.
  • App-Performance verbessern.

Warum es scheitert

  • Binaerer Meilenstein: "Alle kritischen Bugs beheben" ist eine Aufgabenliste, kein Ergebnis.
  • Vanity Metric: "99% Uptime" hat keine Baseline. Wenn die aktuelle Uptime 98,9% ist, ist das fast keine Veraenderung.
  • Platzhalter: "App-Performance verbessern" hat keine Baseline, kein Ziel, keine Metrik und keinen Umfang.
Stark 85 / 100. Exzellent

Produktqualitaet fuer User unsichtbar machen: keine Crashes, keine Verlangsamungen, keine fehlenden Funktionen fuer ein ganzes Quartal.

  • P0- und P1-Bug-Meldungen aus der Produktion sinken von durchschnittlich 14 pro Woche auf unter 3 pro Woche, fuer mindestens 8 aufeinanderfolgende Wochen aufrechterhalten (Quelle: Jira-Bug-Tracker, Produktionsschweregrad-Labels).
  • Median-Seitenladezeit fuer die drei meistgenutzten Flows sinkt von 3,8s auf unter 1,4s auf einer simulierten 4G-Verbindung (Quelle: Lighthouse CI in der Deployment-Pipeline, p50 ueber woechentliche Stichprobe).
  • Von Usern gemeldete Fehler ueber In-App-Feedback sinken von 47 pro Woche auf unter 10 pro Woche, gemessen ueber die letzten 6 Wochen des Quartals (Quelle: In-App-Fehlerformular-Einreichungen, nur Produktionsumgebung).

Warum es funktioniert

  • Jedes KR spezifiziert ein Fenster nachhaltiger Performance, keinen Zeitpunkt-Snapshot. Fuer 8 aufeinanderfolgende Wochen unter einem Schwellenwert zu verbleiben verhindert, dass eine einzelne gute Woche Erfolg erklaert.
  • KR2 benennt das Messinstrument (Lighthouse CI) und den Verbindungstyp (4G), was das Ergebnis reproduzierbar und nachpruefbar macht.
  • KR3 nutzt von Usern gemeldete Fehler als fuehrendes Qualitaetssignal aus Kundenperspektive.
In Diagnose laden →

Coach-Hinweis

"Alle kritischen Bugs beheben" ist der klassische binaere Meilenstein. Am ersten Tag von Q4 hast du entweder null kritische Bugs oder nicht. Es sagt dir nichts darueber, ob User dieses Quartal eine bessere Erfahrung hatten als das letzte. Schreib, was sich fuer User aendert, nicht was dein Team tut.