Claude Code /ultrareview: Multi-Agent-Review vor dem Merge
Anthropic hat /ultrareview in Claude Code freigeschaltet. Eine Agentenflotte prüft PRs in der Cloud. Drei Gratis-Runs für Pro und Max enden am 5. Mai.
Parallel zum Opus-4.7-Release am 16. April hat Anthropic in Claude Code v2.1.86 das neue Slash-Command /ultrareview freigeschaltet. Es läuft in der Research Preview und ist die erste ernstzunehmende Antwort auf CodeRabbit und Greptile aus dem Hause Anthropic selbst.
Was es macht
Statt eines einzelnen Reviewers startet Claude Code in einer Remote-Sandbox eine Flotte von Agenten, die Branch oder Pull Request parallel durchgehen. Jeder gefundene Bug wird anschließend unabhängig verifiziert, bevor er im Report landet. Das Ergebnis ist eine kurze Liste bestätigter Probleme mit Datei- und Zeilenangabe statt der üblichen Flut aus Stil-Hinweisen und False Positives.
Zwei Modi:
/ultrareview # Diff zwischen aktuellem Branch und Default-Branch
/ultrareview 1234 # PR-Nummer, klont direkt von GitHub
Laufzeit 5 bis 10 Minuten, läuft im Hintergrund. Terminal kann währenddessen weiter genutzt werden.
Preise und Grenzen
- Pro und Max: 3 Gratis-Runs einmalig, laufen am 5. Mai 2026 ab
- Team und Enterprise: keine Gratis-Runs, sofort Extra-Usage
- Nach den Gratis-Runs: 5 bis 20 $ pro Review je nach Diff-Größe
- Voraussetzung: Claude.ai-Login, API-Key alleine reicht nicht
Wichtig für DACH-Teams: /ultrareview läuft nicht auf Amazon Bedrock, Google Vertex AI oder Microsoft Foundry und nicht für Organisationen mit aktivem Zero Data Retention. Wer aus Compliance-Gründen auf Bedrock oder Vertex setzt, bekommt das Feature bislang nicht.
Wo es hilft und wo nicht
Hands-on-Berichte aus den letzten Tagen zeichnen ein klares Bild: /ultrareview findet Datenfluss-Probleme über Modulgrenzen hinweg, verfolgt Funktionsaufrufe durch mehrere Abstraktionsebenen und bewertet State-Management-Effekte, die mehrere Dateien betreffen. Genau das, wofür ein lokaler /review zu kurz greift. False-Positive-Quote deutlich niedriger, weil die Verify-Stage jeden Kandidaten separat prüft.
Weniger stark ist das Command bei reiner Style- oder Konventions-Prüfung, das bleibt Aufgabe von Lintern und ESLint-Stacks. Und: Wer einen kleinen Fix iteriert, ist mit dem lokalen /review weiterhin besser bedient. Fünf bis zehn Minuten Cloud-Run lohnen sich erst ab Substanz.
Empfehlung
Wer Claude Code auf Pro oder Max nutzt, sollte die drei Gratis-Runs vor dem 5. Mai gezielt einsetzen: nicht auf Micro-PRs, sondern auf zwei oder drei größere Feature-Branches, bei denen der normale Review-Prozess an Grenzen stößt. Erkenntnisse sammeln, dann Team-Entscheidung treffen, ob die 5 bis 20 $ pro Lauf für die üblichen Merge-Größen einen spürbaren Qualitätsgewinn bringen.
Für alle, die ohnehin schon einen externen PR-Review-Bot wie CodeRabbit oder Greptile im Einsatz haben: Der Vergleichstest steht an. Die Parallelisierung und die Verify-Stage sind bei /ultrareview das eigentliche Differenzierungsmerkmal, die beiden Konkurrenten arbeiten klassisch als Single-Pass.
Nebenbei erwähnt: Mit /ultraplan gibt es auch eine Planungs-Gegenvariante für komplexe Änderungen, die vor dem Schreiben gedacht werden sollen. Das ist einen eigenen Blick wert, wenn die ersten /ultrareview-Runs verbraucht sind.