Claude Code und Codex CLI: das Beste aus beiden Welten
Zwei Terminal-Agenten, komplementäre Stärken: wie Claude Code und OpenAI Codex CLI sich sinnvoll kombinieren lassen und was das für deine Rolle bedeutet.
Claude Code von Anthropic (Mai 2025) und Codex CLI von OpenAI (Anfang 2026) sind zwei vollwertige Terminal-Coding-Agenten. Beide laufen lokal, lesen ganze Repositories und führen eigenständig Aufgaben aus. Sie unterscheiden sich aber deutlich in ihren Stärken, was sie zu einem interessanten Team macht.
Dieser Artikel zeigt, wie die Kombination konkret aussieht und was sie für verschiedene Rollen bringt.
Die beiden Tools kurz vorgestellt
Anthropics Terminal-Agent für tiefes Codebase-Verständnis, komplexes Refactoring und mehrstufige Aufgaben. Läuft als CLI, VS Code Extension, JetBrains Plugin oder Desktop-App. Unterstützt Slack-Integration, geplante Aufgaben und 1-Mio.-Token-Kontextfenster in höheren Plänen.
Open-Source-Terminal-Agent von OpenAI (Apache 2.0, 68.000+ GitHub Stars). Schnell, leichtgewichtig, stark bei repetitiven Batch-Aufgaben. Unterstützt direkt Bild-Eingaben im Terminal (Screenshots, Wireframes), MCP-Integration und Web-Suche. Codex Web läuft zusätzlich in der Cloud.
Beide Tools haben sich 2026 zu vollwertigen Coding-Agenten entwickelt. Der entscheidende Unterschied liegt in der Arbeitsweise: Claude Code glänzt bei komplexem Reasoning und tiefem Codebase-Verständnis, Codex CLI bei Geschwindigkeit und Batch-Verarbeitung. Laut einem unabhängigen Vergleich von Northflank schneidet Claude Code besser ab bei sorgfältigen, durchdachten Coding-Aufgaben, während Codex CLI schneller und günstiger für repetitive Aufgaben ist.
| Merkmal | Claude Code | OpenAI Codex CLI |
|---|---|---|
| Open Source | Nein | Ja (Apache 2.0) |
| Standard-Modell | Claude Sonnet 4.6 | GPT-5.4 |
| Stärken | Tiefes Reasoning, große Codebasen | Schnell, Batch-Tasks, günstig |
| IDE-Integration | VS Code, JetBrains, Cursor | VS Code, Cursor, Windsurf |
| Bild-Eingaben | Ja (Web/Desktop) | Ja (Terminal-TUI) |
| Subagents | Ja | Ja |
| MCP-Support | Ja | Ja |
| Slack-Integration | Ja | Nein |
| Günstigster Zugang | Pro, 20 $/Monat | ChatGPT Plus, 20 $/Monat |
Quellen: Claude Code Docs, OpenAI Codex CLI Docs, Northflank: Claude Code vs OpenAI Codex
Drei Wege zur Kombination
Weg 1: GitHub Agent HQ (einfachster Einstieg)
Seit dem 4. Februar 2026 bietet GitHub beide Agenten direkt in der Plattform an. Im "Agent HQ" kannst du Aufgaben aus Issues, Pull Requests oder dem Agents-Tab heraus an Claude oder Codex vergeben, ohne zwischen Tools zu wechseln.
Das Besondere: du kannst denselben Task an beide Agenten gleichzeitig vergeben und die Ergebnisse als Draft-Pull-Requests vergleichen. Für Teams, die schon GitHub Copilot nutzen, ist das der naheliegendste Weg.
Voraussetzungen:
- GitHub Copilot Pro (10 $/Monat), Pro+ (21 $/Monat) oder Copilot Business (19 $/Nutzer/Monat)
- Eigenes Anthropic-Konto (für Claude-Zugang)
- Eigenes OpenAI-Konto (für Codex-Zugang)
Am 26. Februar 2026 wurde Agent HQ auf Copilot Business und Copilot Pro ausgeweitet.
Weg 2: Aufgaben-Routing (pragmatisch)
Wer beide Tools lokal installiert hat, kann sie je nach Aufgabentyp einsetzen, ohne eine gemeinsame Plattform zu brauchen. Die Faustregeln:
Claude Code eignet sich für:
- Feature-Implementierungen, die mehrere Dateien betreffen
- Architektur-Entscheidungen und komplexes Debugging
- Aufgaben, bei denen du mit dem
opusplan-Modus arbeitest (Opus plant, Sonnet setzt um) - Große Codebasen (bis 1 Mio. Token Kontext)
Codex CLI eignet sich für:
- Test-Generierung in großem Umfang
- Repetitives Refactoring über viele Dateien
- Schnelle Einzel-Aufgaben, bei denen Geschwindigkeit vor Tiefe kommt
- Wenn du ChatGPT Plus schon hast und den Zugang ohne Aufpreis nutzen willst
Codex CLI wird über npm installiert:
npm install -g @openai/codex
codex # Interaktiver Modus
codex exec "Schreibe Unit-Tests für alle Funktionen in src/utils/" # Direkt-Aufruf
Nahtlose Integration: Wer Claude Code mit Skills oder Plugins nutzt, kann Codex CLI direkt aus der Claude-Code-Session heraus starten. Claude Code formuliert den Prompt, wählt das passende Modell und startet codex exec im Hintergrund. Das Ergebnis fließt zurück in die laufende Session. So entfällt das manuelle Wechseln zwischen zwei Terminals komplett.
# Claude Code startet Codex CLI automatisch im Hintergrund
codex exec --model gpt-5.4 --sandbox workspace-write --full-auto \
"Schreibe Unit-Tests für alle Funktionen in src/utils/" 2>/dev/null
Weg 3: Claude Code mit externem Provider (für Entwickler)
Claude Code kann über die Umgebungsvariable ANTHROPIC_BASE_URL auf beliebige OpenAI-kompatible Endpoints umgeleitet werden, darunter OpenRouter (200+ Modelle) oder ein eigener LiteLLM-Proxy.
# OpenRouter als Provider nutzen
export ANTHROPIC_BASE_URL="https://openrouter.ai/api/v1"
export ANTHROPIC_AUTH_TOKEN="dein-openrouter-key"
# Danach claude normal starten
Das ermöglicht Fallback-Konfigurationen: primär Claude, bei Limit-Überschreitung automatisch ein anderes Modell. Wichtig: Claude Code wurde für Claude-Modelle optimiert. Andere Modelle können bei mehrstufigen Tool-Chains und beim Anwenden von Diffs unzuverlässig sein. Dieser Weg ist eher etwas für Entwickler, die ihren Workflow tief anpassen wollen.
Quelle: Claude Code Docs: Model Configuration
Was kostet das?
| Szenario | Monatliche Kosten | Was enthalten ist |
|---|---|---|
| Nur Claude Code Pro | 20 $ | Claude Code + Claude.ai Web/Mobile |
| Nur ChatGPT Plus + Codex | 20 $ | Codex CLI + ChatGPT |
| Beide getrennt | 40 $ | Volle Kapazität beider Tools |
| GitHub Copilot Pro + Agent HQ | ab 10 $ + eigene Anbieter-Konten | Beide in einer Oberfläche (Anthropic + OpenAI separat nötig, +40 $) |
| Claude Code Max (5x) | 100 $ | Claude Code mit 5x Kapazität |
Wer schon ChatGPT Plus hat, bekommt Codex CLI ohne Aufpreis dazu. Der Schritt von 20 $ auf 40 $ kauft zwei komplementäre Werkzeuge mit unterschiedlichen Stärken.
Hinweis zum Pro/Max-Kontingent: Claude Code Pro und Max teilen sich das Nutzungskontingent mit Claude.ai Web und Mobile. Wer viel in der Web-Oberfläche arbeitet, hat weniger für Claude Code übrig.
Quellen: Claude.com: Pricing, OpenAI Codex CLI Pricing, SSDNodes: Claude Code Pricing 2026
Was das für deine Rolle bedeutet
Als Entwickler hast du den größten Nutzen von der Kombination. Der Workflow, der sich in der Praxis bewährt: Claude Code für den ersten Entwurf und das Durchdenken der Architektur, Codex CLI für das schnelle Generieren von Tests und das Durcharbeiten repetitiver Teile.
Schritt 1: Claude Code plant die Architektur und implementiert den Kern:
Ich brauche einen neuen API-Endpunkt für die Benutzersuche. Bestehende Endpunkte sind in src/api/. Die Datenbankschicht nutzt TypeORM. Erstelle den Endpunkt inklusive Validierung und Error Handling.
Schritt 2: Claude Code delegiert die Test-Generierung direkt an Codex CLI:
Starte Codex CLI, um Unit- und Integrationstests für den neuen Endpunkt in src/api/users/search zu generieren. Folge dem bestehenden Testmuster aus src/api/tests/. Decke Validierungsfehler, leere Ergebnisse und Pagination ab.
Wenn Codex CLI lokal installiert ist, kann Claude Code den Aufruf direkt übernehmen: Es formuliert den passenden Prompt, startet codex exec im Hintergrund und integriert das Ergebnis in die laufende Session. Du bleibst in einem Terminal und bekommst das Beste aus beiden Modellen.
Alternativ kannst du über GitHub Agent HQ denselben PR-Entwurf von Claude und Codex gleichzeitig erstellen lassen und das bessere Ergebnis nehmen.
Offene Fragen und Einschränkungen
Ein paar Punkte, die du im Blick haben solltest:
- Codex Free-Plan: Der kostenlose Zugang für ChatGPT Free-/Go-Nutzer ist als "zeitlich begrenzt" angekündigt. Kein Enddatum bekannt.
- ANTHROPIC_BASE_URL-Umleitung: Funktioniert, aber Claude Code ist für Claude-Modelle optimiert. Andere Modelle können bei Tool-Chains und Diff-Anwendung unzuverlässig sein.
- GitHub Agent HQ: Erfordert separate Accounts bei Anthropic und OpenAI zusätzlich zum GitHub-Plan. Die Nutzung wird gegen das jeweilige Kontingent der eigenen Konten gezählt.
- Benchmarks: Die Terminal-Bench-2.0-Zahlen (GPT-5.3-Codex 77,3% vs. Claude 65,4%) stammen von Morph LLM, einem kommerziellen Anbieter. Die Zahlen sind plausibel, aber die Quelle hat ein kommerzielles Interesse. Quelle: Morph LLM: Codex vs. Claude Code
Quellen
- Anthropic: Claude Code Docs - Offizielle Dokumentation
- Anthropic: Claude Code Model Config - ANTHROPIC_BASE_URL und Modell-Konfiguration
- Claude.com: Pricing - Aktuelle Plan-Preise
- OpenAI: Codex CLI Docs - Offizielle Dokumentation
- OpenAI: Codex CLI Pricing - Plan-Übersicht
- GitHub: openai/codex - Open-Source-Repository
- GitHub Blog: Pick your agent (04.02.2026) - Agent HQ Ankündigung
- GitHub Changelog: Ausweitung auf Copilot Business/Pro (26.02.2026)
- Northflank: Claude Code vs. OpenAI Codex - Unabhängiger Vergleich
- Morph LLM: Codex vs. Claude Code Benchmarks - Benchmark-Daten (kommerzieller Anbieter)
- LiteLLM Docs: Claude Code with Non-Anthropic Models - Proxy-Konfiguration
- OpenRouter: Claude Code Integration - Externe Provider-Konfiguration
- SSDNodes: Claude Code Pricing 2026 - Plan-Übersicht