Diagnostic
Fuege deine OKR ein. Erhalte in Sekunden eine strukturierte Kritik: was nicht stimmt, warum, und drei Umformulierungen, die du sofort nutzen kannst. Dein API-Schluessel verlasst nie deinen Browser.
Laeuft lokal vor dem LLM-Aufruf. Output-Verb-Erkennung, Timebox-Regex, Platzhalter-Check. Sofort-Vorscore, kein Schluessel erforderlich.
Beispiel ausprobieren
OKR einfuegen
Schluessel nur im Browser gespeichert. Jeweils ein OKR-Set.
Ca. $0,002 pro Analyse mit GPT-4o-mini. Ca. $0,01 mit Claude Sonnet. Cmd+Enter zum Absenden.
Ca. $0,02-0,04 pro Sitzung. Gespraech bleibt nur in deinem Browser.
Regelmotor-Hinweise
Befunde
LLM-Analyse wird erstellt
Vorgeschlagene Umformulierungen
Set-Ebenen-Analyse
Der "Na und?"-Test
OKR Orca bewertet anhand eines Sieben-Kriterien-Rubrics. Drei Kriterien gelten fuer das Objective. Zwei Kriterien gelten fuer jedes Key Result. Zwei gelten fuer das Set als Ganzes.
Das Kernprinzip: "Wer tut was um wie viel." Ein Outcome ist eine messbare Verhaltensaenderung. Outputs sind keine Outcomes. Impact (Umsatz, Gewinn) ist zu weit entfernt. Key Results leben auf der Outcome-Ebene.
Frage fuer jedes KR: (1) Wenn alle KRs gruen sind, ist das Objective offensichtlich erreicht? (2) Wenn dieses KR rot wird, signalisiert es ein echtes Problem? (3) Kontrolliert das Team diese Metrik tatsaechlich? Jedes "Nein" bedeutet, das KR muss umgeschrieben werden.
Gaengige Anti-Muster: Output-als-KR. Impact-als-KR (Umsatzziele). Vanity-Metriken (Engagement ohne "wer + um wie viel"). Platzhalter. Binaere Meilensteine (100% migriert). Aufgabenlisten als KRs verkleidet.
Nein. Dein OKR-Text wird direkt von deinem Browser an OpenAI oder Anthropic gesendet. OKR Orca hat kein Backend. Der Quellcode ist oeffentlich und du kannst das selbst nachpruefen.
Nur im localStorage deines Browsers. Er wird nie an okrorca.com oder Dritte uebertragen. Du kannst ihn jederzeit ueber den "aendern"-Link in der Navigation loeschen.
OpenAI: GPT-4o-mini (Standard, guenstigste), GPT-4o. Anthropic: Claude Sonnet 4.6 (Standard), Claude Haiku 3.5. Der Regelmotor-Vorscore laeuft lokal und ist unabhaengig vom Schluessel kostenlos.
Mit GPT-4o-mini ca. $0,001 bis $0,003 pro Analyse. Mit Claude Sonnet 4.6 ca. $0,008 bis $0,015. Die im Eingabe-Panel angezeigte Schaetzung ist nur ein Richtwert.
Ja. Der Regelmotor-Vorscore laeuft sofort im Browser ohne Schluessel. Du erhaeltst Output-Verb-Flags, Timebox-Checks, Platzhalter-Erkennung und einen Vorscore. LLM-Umformulierungsvorschlaege erfordern einen Schluessel.
Ein heuristischer Score (0-100), der lokal in unter 100 ms berechnet wird. Er prueft auf Output-Verben in KRs, fehlende Timeboxes im Objective, Platzhalter-Strings und das Vorhandensein von Baseline- und Zielwerten. Es ist ein schnelles Signal, kein Ersatz fuer die vollstaendige LLM-Analyse.
Der Coach-Modus ist der zweite Tab im Eingabe-Panel. Statt eine bestehende OKR einzufuegen, startest du ein Gespraech. Das Tool stellt jeweils eine fokussierte Frage, macht die Luecke zwischen deinem Ziel und dem Geschriebenen sichtbar, und hilft dir, eine OKR in deinen eigenen Worten zu formulieren. Wenn der Entwurf fertig ist, kannst du ihn direkt zum Diagnose-Modus fuer einen Rubric-Score schicken.
Ich bin Frederik Metz, Agile Coach in Muenchen. Ich habe in den letzten Jahren mehrere Hundert OKRs reviewed, meistens von Produktteams, die das Rubric richtig hinbekommen wollen und dabei an Output-verkleidet-als-Outcome-KRs haengenbleiben.
OKR Orca ist das Diagnosetool, das ich mir fuer meine Teams frueher gewuenscht haette. Das 7-Kriterien-Rubric ist das, das ich in Coaching-Gespraechen verwende. Es ist meinungsstark, aber es ist die Meinung, die konsistent OKRs produziert, die Outcomes bewegen, statt OKRs, die Planning-Theater produzieren.
Das Tool ist kostenlos. Dein Schluessel bleibt in deinem Browser. Kein Account, kein Tracking. Wenn du einen Bug findest oder ein Feature willst, liegt der Quellcode auf GitHub.