Codex CLI

OpenAIs Code-Agent-CLI mit GPT-5/o-Series

Kategorie
cli_bound
Status
Aktiv
Aggregator
nein
Modalitäten
text, code

Default-Provider

OpenAI APIUSPrüfung nötig

Modelle · 3 Kombinationen

Was läuft in Codex CLI?

Default3 Modelle

Erweiterungen · 2

Was dockt an Codex CLI an?

mcp-server · context-mode

context-mode

Jeder Tool-Call frisst Kontext. Ein Playwright-Snapshot = 56 KB, zwanzig GitHub-Issues = 59 KB. context-mode fängt diese Rohdaten in einer lokalen Sandbox ab, indiziert sie in SQLite + FTS5 und liefert dem Modell nur noch das relevante Ergebnis. Kombiniert mit Hooks, die "think in code" durchsetzen: statt 50 Dateien zu lesen, schreibt der Agent ein Skript, das zählt und nur das Ergebnis loggt.

mcp-server ·

PAL MCP

Dein CLI + mehrere Modelle = dein AI-Dev-Team. PAL (Provider Abstraction Layer, ehemals Zen MCP) ist ein MCP-Server, der Claude Code, Codex CLI, Gemini CLI und IDE-Clients wie Cursor mit Drittmodellen verbindet. Default-Tools: `chat`, `consensus`, `codereview`, `precommit`, `debug`, `thinkdeep`, `planner`, `apilookup`, `challenge`. Der neue `clink`-Modus startet isolierte CLI-Subagents (z. B. Codex-Reviewer aus Claude Code heraus) und schont damit das Hauptkontext-Fenster. Kein Pflichtwerkzeug — aber extrem praktisch, wenn mehrere Provider-Accounts (OpenAI, Google, xAI, Moonshot, OpenRouter, Azure, DIAL, Ollama) vorhanden sind.

IDE-Integrationen

Codex CLI in deiner IDE