Codex CLI: The Definitive Technical Reference
#
TL;DR: Codex ist ein Multi-Surface-Coding-Agent, der Ihre Codebasis liest, Befehle in einer Sandbox auf Betriebssystemebene ausführt, Dateien patcht und Aufgaben an die Cloud delegiert. Beherrschen Sie fünf Kernsysteme (config.toml, Sandbox-/Genehmigungsmodell, AGENTS.md, MCP und Skills) und Codex wird zum Kraftmultiplikator. Verwenden Sie Profile zum Kontextwechsel,
/compactzur Verwaltung des 272K-Token-Budgets und AGENTS.md für werkzeugübergreifende Projektanweisungen, die in Codex, Cursor, Amp und weiteren Tools funktionieren.
Codex arbeitet als Multi-Surface-Coding-Agent, nicht als Chatbot, der Code schreibt. Die CLI liest Ihre Codebasis, führt Befehle in einer Sandbox aus, patcht Dateien, verbindet sich über MCP mit externen Diensten und delegiert lang laufende Aufgaben an die Cloud. Es läuft lokal, denkt aber global; dieselbe Intelligenz betreibt vier verschiedene Oberflächen – je nachdem, wie Sie arbeiten.
Der Unterschied zwischen beiläufiger und effektiver Codex-Nutzung reduziert sich auf fünf Kernsysteme. Beherrschen Sie diese und Codex wird zum Kraftmultiplikator:
- Konfigurationssystem: steuert das Verhalten über
config.toml - Sandbox- & Genehmigungsmodell: kontrolliert, was Codex tun darf
- AGENTS.md: definiert Betriebsverträge auf Projektebene
- MCP-Protokoll: erweitert die Fähigkeiten um externe Dienste
- Skills-System: bündelt wiederverwendbare Fachexpertise
Ich habe Monate damit verbracht, Codex neben Claude Code in Produktions-Codebasen, CI/CD-Pipelines und Team-Workflows einzusetzen. Dieser Leitfaden destilliert diese Erfahrung in die vollständige Referenz, die ich mir gewünscht hätte, als ich angefangen habe. Jede Funktion enthält die tatsächliche Syntax, reale Konfigurationsbeispiele und die Grenzfälle, die selbst erfahrene Benutzer stolpern lassen.
Hinweis zur Stabilität: Mit
[EXPERIMENTAL]gekennzeichnete Funktionen können sich zwischen Versionen ändern. Codex Cloud und die MCP-Befehlsgruppe sind beide ab v0.107.0 experimentell. Die Kern-CLI, Sandbox, AGENTS.md, config.toml und Skills sind stabil.
Wichtigste Erkenntnisse
- Vier Oberflächen, ein Gehirn: CLI, Desktop-App, IDE-Erweiterung und Cloud-Aufgaben teilen sich alle dieselbe GPT-5.x-Codex-Intelligenz — wählen Sie die Oberfläche, die zu Ihrem Workflow passt.
- Sandboxing auf Betriebssystemebene: Codex erzwingt Dateisystem- und Netzwerkbeschränkungen auf Kernel-Ebene (Seatbelt unter macOS, Landlock + seccomp unter Linux), nicht innerhalb von Containern.
- AGENTS.md ist werkzeugübergreifend: Ihre Projektanweisungen funktionieren in Codex, Cursor, Copilot, Amp, Jules, Gemini CLI, Windsurf, Cline, Aider, Zed und über 60.000 Open-Source-Projekten. Einmal schreiben, überall verwenden.
- Profile sparen Kontextwechsel-Aufwand: Definieren Sie benannte Konfigurationsvorlagen (
fast,careful,auto) und wechseln Sie mit--profilezwischen ihnen. - 272K Eingabekontext füllt sich schnell: Verwenden Sie
/compact, fokussierte Prompts und@file-Referenzen, um Token-Budgets proaktiv zu verwalten.
So verwenden Sie diesen Leitfaden
Dies ist eine Referenz mit über 2.500 Zeilen — beginnen Sie dort, wo Ihr Erfahrungsstand passt:
| Erfahrung | Hier starten | Dann erkunden |
|---|---|---|
| Neu bei Codex | Installation → Schnellstart → Denkmodell | Konfiguration, Sandbox |
| Täglicher Nutzer | AGENTS.md, Skills, Plan Mode | MCP, Hooks |
| Teamleitung / Enterprise | Enterprise-Deployment → Best Practices | Entscheidungsrahmen, Workflow-Rezepte |
| Migration von einem anderen Tool | Migrationsleitfaden | Entscheidungsrahmen |
Die Kurzreferenzkarte am Ende bietet eine übersichtliche Zusammenfassung aller wichtigen Befehle.
So funktioniert Codex: Das Denkmodell
Bevor Sie sich in die Funktionen vertiefen, sollten Sie verstehen, wie die Architektur von Codex alles beeinflusst, was Sie damit tun. Das System arbeitet über vier Oberflächen, die von einer gemeinsamen Intelligenzschicht unterstützt werden:
┌─────────────────────────────────────────────────────────┐
│ CODEX SURFACES │
├─────────────────────────────────────────────────────────┤
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌────────┐ │
│ │ CLI │ │ Desktop │ │ IDE │ │ Cloud │ │
│ │ Terminal │ │ App │ │Extension │ │ Tasks │ │
│ └──────────┘ └──────────┘ └──────────┘ └────────┘ │
│ Local exec Multi-task Editor-native Async │
│ + scripting + worktrees + inline edits detached │
├─────────────────────────────────────────────────────────┤
│ EXTENSION LAYER │
│ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ │
│ │ MCP │ │ Skills │ │ Apps │ │ Search │ │
│ └─────────┘ └─────────┘ └─────────┘ └─────────┘ │
│ External tools, reusable expertise, ChatGPT │
│ connectors, web search (cached + live) │
├─────────────────────────────────────────────────────────┤
│ SECURITY LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ Sandbox (Seatbelt / Landlock / seccomp) │ │
│ │ + Approval Policy (untrusted → never) │ │
│ └─────────────────────────────────────────────────┘ │
│ OS-level filesystem + network restrictions │
├─────────────────────────────────────────────────────────┤
│ CORE LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ GPT-5.x-Codex Intelligence │ │
│ │ Tools: Shell, Patch, Read, Web Search │ │
│ └─────────────────────────────────────────────────┘ │
│ Shared model across all surfaces; costs tokens │
└─────────────────────────────────────────────────────────┘
Kernschicht: Die GPT-5.x-Codex-Modellfamilie treibt alles an. Ab Version v0.107.0 ist gpt-5.3-codex das Standardmodell mit einem 272K-Token-Eingabekontextfenster (128K Ausgabe, 400K Gesamtbudget).35 Es liest Dateien, schreibt Patches, führt Shell-Befehle aus und analysiert Ihre Codebasis. Wenn der Kontext voll ist, komprimiert Codex die Konversation, um Platz freizugeben. Diese Schicht verbraucht Tokens.
Sicherheitsschicht: Jeder Befehl, den Codex ausführt, durchläuft eine Sandbox auf Betriebssystemebene. Unter macOS erzwingt Apples Seatbelt-Framework Beschränkungen auf Kernel-Ebene. Unter Linux filtern Landlock + seccomp Dateisystem- und Syscall-Zugriffe. Die Sandbox arbeitet auf Kernel-Ebene, nicht innerhalb von Containern. Die Genehmigungsrichtlinie entscheidet dann, wann eine menschliche Bestätigung erforderlich ist.
Erweiterungsschicht: MCP verbindet externe Dienste (GitHub, Figma, Sentry). Skills bündeln wiederverwendbare Workflows, die Codex bei Bedarf lädt. Apps verbinden sich mit ChatGPT-Konnektoren. Die Websuche liefert Echtzeitkontext aus dem Internet.
Oberflächenschicht: CLI für Terminal-Poweruser und Automatisierung. Desktop-App für Multiprojekt-Management mit mehreren Threads. IDE-Erweiterung für enge Bearbeiten-Kompilieren-Testen-Schleifen. Cloud für asynchrone Aufgaben, die unabhängig laufen.
Die zentrale Erkenntnis: Die meisten Benutzer verwenden nur eine Oberfläche. Poweruser nutzen alle vier: Cloud für langlaufende Aufgaben, CLI für deterministische Repository-Operationen, IDE-Erweiterung für enge Codierungsschleifen und die Desktop-App für Planung und Koordination.
Inhaltsverzeichnis
- Wie installiere ich Codex?
- Schnellstart: Ihre erste Sitzung
- Zentrale Interaktionsoberflächen
- Konfigurationssystem im Detail
- Welches Modell sollte ich wählen?
- Was kostet Codex?
- Entscheidungsrahmen
- Wie funktioniert das Sandbox- und Genehmigungssystem?
- Wie funktioniert AGENTS.md?
- Hooks
- Was ist MCP (Model Context Protocol)?
- JavaScript REPL Runtime
- Was sind Skills?
- Plan Mode und Zusammenarbeit
- Gedächtnissystem
- Sitzungsverwaltung
- Nicht-interaktiver Modus (codex exec)
- Codex Cloud und Hintergrundaufgaben
- Die Codex Desktop-App
- GitHub Action und CI/CD
- Codex SDK
- Leistungsoptimierung
- Wie behebe ich Probleme?
- Enterprise-Deployment
- Best Practices und Anti-Patterns
- Workflow-Rezepte
- Migrationsleitfaden
- Kurzreferenzkarte
- Änderungsprotokoll
- Referenzen
Wie installiere ich Codex?
Paketmanager
# npm (recommended)
npm install -g @openai/codex
# Homebrew (macOS)
brew install --cask codex
# Upgrade to latest
npm install -g @openai/codex@latest
Direktes Installationsskript (v0.106.0+)
Für macOS und Linux steht ein einzeiliges Installationsskript als GitHub-Release-Asset zur Verfügung:62
curl -fsSL https://github.com/openai/codex/releases/latest/download/install.sh | sh
Das Skript erkennt automatisch Ihre Plattform und Architektur, lädt die korrekte Binärdatei herunter und platziert sie in Ihrem PATH.
Binäre Downloads
Für Umgebungen ohne npm oder Homebrew können Sie plattformspezifische Binärdateien von den GitHub Releases herunterladen1:
| Plattform | Binärdatei |
|---|---|
| macOS Apple Silicon | codex-aarch64-apple-darwin.tar.gz |
| macOS x86_64 | codex-x86_64-apple-darwin.tar.gz |
| Linux x86_64 | codex-x86_64-unknown-linux-musl.tar.gz |
| Linux arm64 | codex-aarch64-unknown-linux-musl.tar.gz |
Systemanforderungen
- macOS: Apple Silicon oder Intel (volle Sandbox-Unterstützung über Seatbelt)
- Linux: x86_64 oder arm64 (Sandbox über Landlock + seccomp)
- Windows: Native Sandbox mit eingeschränkten Tokens (seit v0.100.0 aus dem experimentellen Status herausgenommen). WSL wird ebenfalls unterstützt2
Authentifizierung
codex login # Interactive OAuth (recommended)
codex login --device-auth # OAuth device code flow (headless)
codex login --with-api-key # API key from stdin
codex login status # Check auth state (exit 0 = logged in)
codex logout # Clear stored credentials
Zwei Authentifizierungswege:
- ChatGPT-Konto (empfohlen): Melden Sie sich mit Ihrem bestehenden Plus-, Pro-, Team-, Business-, Edu- oder Enterprise-Abonnement an. Voller Funktionszugang einschließlich Cloud-Aufgaben.
- API-Schlüssel: Über die Umgebungsvariable
CODEX_API_KEYodercodex login --with-api-keyeinstellbar. Einige Funktionen (Cloud-Threads) sind möglicherweise nicht verfügbar.
Expertentipp: Die Speicherung der Anmeldedaten ist über
cli_auth_credentials_storeinconfig.tomlkonfigurierbar. Optionen:file(Standard),keyring(Betriebssystem-Schlüsselbund) oderauto(Schlüsselbund wenn verfügbar, Datei als Fallback).
Shell-Vervollständigungen
# Generate completions for your shell
codex completion bash > /etc/bash_completion.d/codex
codex completion zsh > ~/.zsh/completions/_codex
codex completion fish > ~/.config/fish/completions/codex.fish
Installation überprüfen
codex --version
# Codex CLI v0.104.0
Schnellstart: Ihre erste Sitzung
In 5 Minuten von Null auf produktiv.
1. Installieren und authentifizieren:
npm i -g @openai/codex # Install
codex login # Log in with your OpenAI account
2. Zu einem Projekt navigieren:
cd ~/my-project # Any git repo works
3. Codex starten:
codex
Sie sehen die interaktive TUI. Codex liest Ihre Projektstruktur automatisch ein.
4. Eine Frage stellen:
> What does this project do? Summarize the architecture.
Codex liest wichtige Dateien und erklärt die Codebasis. Im Standard-Modus suggest werden keine Änderungen vorgenommen.
5. Eine Änderung vornehmen:
> Add input validation to the login endpoint
Codex schlägt Bearbeitungen als Diff vor. Prüfen und mit y genehmigen oder mit n ablehnen.
6. Einen Slash-Befehl verwenden:
> /plan Refactor the database layer to use connection pooling
Codex erstellt einen Plan, ohne ihn auszuführen. Prüfen Sie den Plan und genehmigen Sie ihn, um die Ausführung zu starten.
7. Ihre Arbeit überprüfen:
> /diff
Sehen Sie alle Änderungen, die Codex in der aktuellen Sitzung vorgenommen hat.
Nächste Schritte:
- Richten Sie AGENTS.md mit Projektanweisungen ein (siehe Wie funktioniert AGENTS.md?)
- Konfigurieren Sie ein Profil für Ihren Workflow (siehe Profile)
- Probieren Sie codex exec für nicht-interaktive Automatisierung aus (siehe Nicht-interaktiver Modus)
Zentrale Interaktionsoberflächen
Codex bietet vier verschiedene Oberflächen, die auf derselben Intelligenz basieren. Jede Oberfläche ist für ein anderes Workflow-Muster optimiert.
1. Interaktives CLI (Terminal UI)
codex # Launch TUI
codex "fix the failing tests" # Launch with initial prompt
codex -m gpt-5.3-codex # Specify model
codex --full-auto # Workspace-write sandbox + on-request approval
Die Terminal-UI ist eine Vollbildanwendung mit:
- Composer: Eingabeaufforderungen verfassen, Dateien mit
@anhängen, Shell-Befehle mit dem Präfix!ausführen - Ausgabebereich: Streaming von Modellantworten, Tool-Aufrufen und Befehlsausgaben
- Statusleiste: Modell, Token-Verbrauch, Git-Branch, Sandbox-Modus
Wichtige TUI-Tastenkürzel:
| Tastenkürzel | Aktion |
|---|---|
@ |
Unscharfe Dateisuche (zum Kontext hinzufügen) |
!command |
Shell-Befehl direkt ausführen |
Ctrl+G |
Externen Editor öffnen ($VISUAL / $EDITOR) |
Enter (während der Ausführung) |
Neue Anweisungen während eines Durchlaufs einfügen |
Esc zweimal |
Vorherige Nachrichten bearbeiten |
| Pfeiltasten | Durch Entwurfsverlauf navigieren |
Slash-Befehle in der TUI:
| Befehl | Beschreibung |
|---|---|
/quit oder /exit |
CLI beenden |
/new |
Neue Konversation in derselben Sitzung starten |
/resume |
Gespeicherte Konversation fortsetzen |
/fork |
Aktuelle Konversation in neuen Thread abzweigen |
/model |
Modell und Reasoning-Aufwand wechseln |
/compact |
Konversation zusammenfassen, um Token freizugeben |
/diff |
Git-Diff einschließlich nicht verfolgter Dateien anzeigen |
/review |
Code-Review des Arbeitsverzeichnisses |
/plan |
Planungsmodus aktivieren |
/mention |
Datei zur Konversation hinzufügen |
/init |
AGENTS.md-Gerüst generieren |
/status |
Sitzungskonfiguration und Token-Verbrauch |
/permissions |
Genehmigungsrichtlinie festlegen |
/personality |
Kommunikationsstil (friendly/pragmatic/none) |
/mcp |
Konfigurierte MCP-Tools auflisten |
/apps |
ChatGPT-Konnektoren durchsuchen |
/ps |
Hintergrund-Terminals anzeigen |
/skills |
Skills aufrufen und verwalten |
/config |
Effektive Konfigurationswerte und Quellen ausgeben |
/statusline |
TUI-Fußzeile konfigurieren |
/feedback |
Protokolle an die Codex-Entwickler senden |
/logout |
Abmelden |
2. Codex Desktop App (macOS)
codex app # Launch desktop app (auto-installs if missing)
Die Desktop-App bietet Funktionen, die das CLI nicht hat:
- Multitasking: Mehrere parallele Agenten über verschiedene Projekte gleichzeitig ausführen
- Git-Worktree-Isolation: Jeder Thread arbeitet auf einer isolierten Kopie Ihres Repositories
- Inline-Diff-Review: Änderungen stagen, zurücksetzen und committen, ohne die App zu verlassen
- Integriertes Terminal: Pro-Thread-Terminal für die Ausführung von Befehlen
- Konversationsverzweigung: Konversationen abzweigen, um Alternativen zu erkunden
- Schwebende Pop-out-Fenster: Konversationen in portable Fenster ablösen
- Automatisierungen: Wiederkehrende Aufgaben planen (Issue-Triage, CI-Überwachung, Alert-Reaktion)
Wann die App statt CLI verwenden: Nutzen Sie die Desktop-App, wenn Sie mehrere Arbeitsstränge koordinieren oder eine visuelle Diff-Überprüfung benötigen. Nutzen Sie das CLI, wenn Sie Terminal-Komposierbarkeit, Skripting oder CI/CD-Integration wünschen.
3. IDE-Erweiterung (VS Code, Cursor, Windsurf)
Die Codex-IDE-Erweiterung integriert sich direkt in Ihren Editor:
- Agentenmodus als Standard: Liest Dateien, nimmt Bearbeitungen vor, führt Befehle aus
- Inline-Bearbeitungen: Kontextbezogene Vorschläge in Ihren aktiven Dateien
- Geteilte Sitzungen: Sitzungen werden zwischen CLI und IDE-Erweiterung synchronisiert
- Gleiche Authentifizierung: Anmeldung mit ChatGPT-Konto oder API-Schlüssel
Installieren Sie die Erweiterung über den VS Code Marketplace oder die Cursor/Windsurf-Erweiterungsshops.3
4. Codex Cloud [EXPERIMENTAL]
Cloud-Aufgaben laufen asynchron in von OpenAI verwalteten Umgebungen:
- Abschicken und vergessen: Aufgaben in die Warteschlange stellen, die unabhängig von Ihrem lokalen Rechner ausgeführt werden
- Parallele Ausführung: Mehrere Cloud-Aufgaben gleichzeitig ausführen
- PR-Erstellung: Codex erstellt Pull Requests aus abgeschlossener Arbeit
- Lokales Anwenden: Cloud-Ergebnisse mit
codex apply <TASK_ID>in Ihr lokales Repository übernehmen
codex cloud list # List recent cloud tasks
codex apply <TASK_ID> # Apply diff from a specific cloud task
Cloud-Aufgaben sind auch über chatgpt.com/codex zugänglich.4
Konfigurationssystem im Detail
Codex verwendet TOML für die Konfiguration. Das Verständnis der Vorranghierarchie ist entscheidend, da sie bestimmt, welche Einstellungen bei Konflikten gelten.
Vorrang (Höchste bis Niedrigste Priorität)
- Sitzungsüberschreibungen (höchste): CLI-Flags (
--model,--sandbox,--ask-for-approval,--search,--enable/--disable,--profile) und-c key=value-Überschreibungen - Projektkonfiguration (
.codex/config.toml, wird vom aktuellen Arbeitsverzeichnis aufwärts zum Projektstamm gesucht; das nächstgelegene Verzeichnis gewinnt) - Benutzerkonfiguration (
$CODEX_HOME/config.toml, Standard ist~/.codex/config.toml) - Systemkonfiguration (
/etc/codex/config.tomlunter Unix) - Eingebaute Standardwerte (niedrigste)
requirements.tomlfungiert als Richtlinien-Einschränkungsebene, die festlegt, welche Werte Benutzer nach der normalen Konfigurationszusammenführung auswählen können. Siehe Enterprise-Bereitstellung.
Speicherorte der Konfigurationsdateien
| Bereich | Pfad | Zweck |
|---|---|---|
| Benutzer | ~/.codex/config.toml |
Persönliche Standardwerte |
| Projekt | .codex/config.toml |
Repository-spezifische Überschreibungen |
| System | /etc/codex/config.toml |
Maschinenweite Standardwerte |
| Verwaltet | /etc/codex/requirements.toml |
Vom Administrator erzwungene Richtlinien |
Expertentipp: Die Umgebungsvariable
CODEX_HOMEüberschreibt das Standardverzeichnis~/.codex. Nützlich für CI/CD oder Setups mit mehreren Konten.
Vollständige Konfigurationsreferenz
# ~/.codex/config.toml — annotated reference
# ─── Model Selection ───────────────────────────────────
model = "gpt-5.3-codex" # Default model (272K input context)
model_provider = "openai" # Provider (openai, oss, or custom provider id)
model_context_window = 272000 # Token count available to active model (override)
model_auto_compact_token_limit = 200000 # Threshold triggering automatic history compaction
model_reasoning_effort = "medium" # minimal|low|medium|high|xhigh (model-dependent)
model_reasoning_summary = "auto" # auto|concise|detailed|none
model_verbosity = "medium" # low|medium|high
personality = "pragmatic" # none|friendly|pragmatic
review_model = "gpt-5.2-codex" # Model for /review command
oss_provider = "lmstudio" # lmstudio|ollama (used with --oss)
# ─── Sandbox & Approval ───────────────────────────────
sandbox_mode = "workspace-write" # read-only|workspace-write|danger-full-access
approval_policy = "on-request" # untrusted|on-failure|on-request|never
[sandbox_workspace_write]
writable_roots = [] # Additional writable paths
network_access = false # Allow outbound network
exclude_tmpdir_env_var = false # Exclude $TMPDIR from sandbox
exclude_slash_tmp = false # Exclude /tmp from sandbox
# ─── Web Search ────────────────────────────────────────
web_search = "live" # Web search mode (constrained by allowed modes)
# ─── Instructions ──────────────────────────────────────
developer_instructions = "" # Additional injected instructions
model_instructions_file = "" # Custom instructions file path
compact_prompt = "" # Custom history compaction prompt
# ─── Shell Environment ─────────────────────────────────
allow_login_shell = false # Allow login shell semantics (loads .profile/.zprofile)
[shell_environment_policy]
inherit = "all" # all|core|none
ignore_default_excludes = false # Set true to keep KEY/SECRET/TOKEN vars
exclude = [] # Glob patterns to exclude
set = {} # Explicit overrides
include_only = [] # Whitelist patterns
# ─── Authentication ────────────────────────────────────
cli_auth_credentials_store = "file" # file|keyring|auto
forced_login_method = "chatgpt" # chatgpt|api
mcp_oauth_callback_port = 0 # Fixed port for MCP OAuth callback (0 = random)
mcp_oauth_credentials_store = "auto" # auto|file|keyring
# ─── History & Storage ─────────────────────────────────
[history]
persistence = "save-all" # save-all|none
max_bytes = 0 # Cap size (0 = unlimited)
tool_output_token_limit = 10000 # Max tokens per tool output
log_dir = "" # Custom log directory
# ─── UI & Display ──────────────────────────────────────
file_opener = "vscode" # vscode|vscode-insiders|windsurf|cursor|none
hide_agent_reasoning = false
show_raw_agent_reasoning = false
check_for_update_on_startup = true
[tui]
notifications = false # Enable notifications
notification_method = "auto" # auto|osc9|bel
animations = true
show_tooltips = true
alternate_screen = "auto" # auto|always|never
status_line = ["model", "context-remaining", "git-branch"]
# ─── Project Trust ─────────────────────────────────────
project_doc_max_bytes = 32768 # Max AGENTS.md size (32 KiB)
project_doc_fallback_filenames = [] # Alternative instruction filenames
project_root_markers = [".git"] # Project root detection
# ─── Feature Flags ─────────────────────────────────────
# Use `codex features list` for current names/stages/defaults.
[features]
shell_tool = true # Shell command execution (stable)
collaboration_modes = true # Plan mode (stable)
personality = true # Personality selection (stable)
request_rule = true # Smart approvals (stable)
unified_exec = true # PTY-backed exec (stable)
shell_snapshot = true # Shell env snapshots (stable)
command_attribution = true # Codex co-author in commits (v0.103.0+)
request_user_input = true # Allow agent to ask clarifying questions in Default mode (v0.106.0+)
multi_agent = false # Enable multi-agent collaboration tools (v0.102.0+)
apply_patch_freeform = false # Expose freeform apply_patch tool
apps = false # ChatGPT Apps/connectors (experimental)
child_agents_md = false # AGENTS.md guidance (experimental)
runtime_metrics = false # Runtime summary in turns
search_tool = false # Enable search_tool_bm25 for Apps discovery
# ─── Multi-Agent Roles (v0.102.0+) ───────────────────
[agents]
max_threads = 4 # Maximum concurrent agent threads
[agents.explorer]
description = "Read-only codebase navigator"
config_file = "~/.codex/profiles/explorer.toml"
# ─── Notifications ────────────────────────────────────
notify = ["terminal-notifier", "-title", "Codex"] # Command for notifications
# ─── Per-Project Overrides ────────────────────────────
[projects."/absolute/path/to/repo"]
trust_level = "trusted" # Per-project trust override
Profile
Benannte Konfigurationsvorlagen für verschiedene Arbeitsmodi:
# Define profiles in ~/.codex/config.toml
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
approval_policy = "on-request"
sandbox_mode = "workspace-write"
personality = "pragmatic"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
approval_policy = "untrusted"
sandbox_mode = "read-only"
[profiles.auto]
model = "gpt-5.3-codex"
model_reasoning_effort = "medium"
approval_policy = "never"
sandbox_mode = "workspace-write"
Aktivieren Sie ein Profil:
codex --profile fast "quick refactor"
codex --profile careful "security audit"
codex -p auto "fix CI"
Expertentipp: Legen Sie ein Standardprofil mit
profile = "fast"auf der obersten Ebene Ihrer Konfiguration fest. Überschreiben Sie es pro Sitzung mit--profile.
Benutzerdefinierte Modellanbieter
Verbinden Sie sich mit Azure, lokalen Modellen oder Proxy-Diensten:
[model_providers.azure]
name = "Azure OpenAI"
base_url = "https://YOUR_PROJECT.openai.azure.com/openai"
wire_api = "responses"
query_params = { api-version = "2025-04-01-preview" }
env_key = "AZURE_OPENAI_API_KEY"
[model_providers.ollama]
name = "Ollama (Local)"
base_url = "http://localhost:11434/v1"
wire_api = "chat"
Warnung: Die
chat/completions-Wire-API (wire_api = "chat") wurde für von OpenAI gehostete Modelle als veraltet markiert, wobei OpenAI die Entfernung im Februar 2026 angekündigt hat.36 Lokale Anbieter (Ollama, LM Studio) akzeptieren dieses Format möglicherweise weiterhin. Für OpenAI-Endpunkte verwenden Sie stattdessenwire_api = "responses".
Verwenden Sie lokale Modelle mit dem --oss-Flag:
codex --oss "explain this function" # Uses default OSS provider
codex --oss --local-provider lmstudio "explain" # Explicit LM Studio
codex --oss --local-provider ollama "explain" # Explicit Ollama
Oder legen Sie es in der Konfiguration fest:
model_provider = "oss"
oss_provider = "lmstudio" # or "ollama"
Inline-Konfigurationsüberschreibungen
Überschreiben Sie jeden Konfigurationswert über die Befehlszeile:
codex -c model="gpt-5.2-codex" "refactor the API"
codex -c 'sandbox_workspace_write.network_access=true' "install dependencies"
codex -c model_reasoning_effort="xhigh" "debug the race condition"
Welches Modell sollte ich wählen?
Verfügbare Modelle (Februar 2026)
| Modell | Eingabe / Gesamtkontext | Standard-Reasoning | Geeignet für |
|---|---|---|---|
| gpt-5.3-codex | 272K / 400K | medium |
Standard-Flaggschiff: Coding + Reasoning vereint |
| gpt-5.3-codex-spark | 128K / 128K | high |
Echtzeit-Pairing, schnelle interaktive Iteration |
| gpt-5.2-codex | 272K / 400K | medium |
Langfristige Refactorings, Migrationen, Legacy-Code |
| gpt-5.1-codex-mini | 272K / 400K | medium |
Schnelle Aufgaben, kostensensible Arbeit, CI mit hohem Volumen |
Die genaue Modellliste variiert je nach Konto und Rollout. Ab v0.106.0 ist
gpt-5.3-codexin der CLI-Modellliste für Benutzer mit API-Schlüssel sichtbar.62 Prüfen Sie Ihren lokalen Cache:~/.codex/models_cache.json.
Flussdiagramm zur Modellauswahl
Is this a quick fix or simple question?
├─ Yes → gpt-5.1-codex-mini (fastest, cheapest)
└─ No
├─ Do you need real-time pairing speed?
│ ├─ Yes → gpt-5.3-codex-spark (interactive, lower latency)
│ └─ No
│ ├─ Is this a multi-file refactor or migration?
│ │ ├─ Yes → gpt-5.2-codex (272K context, strong at long tasks)
│ │ └─ No → gpt-5.3-codex (default, best overall)
└─ Still unsure? → gpt-5.3-codex
Reasoning-Aufwand
Steuern Sie, wie intensiv das Modell vor der Antwort „nachdenkt”:
| Stufe | Verhalten | Einsatzbereich |
|---|---|---|
minimal |
Minimales Reasoning (nur GPT-5-Modelle) | Triviale Aufgaben, schnelle Nachschlagen |
low |
Kurzes Reasoning | Standard-Codierungsaufgaben, Formatierung |
medium |
Ausgewogen (Standard) | Die meisten Entwicklungsarbeiten |
high |
Erweitertes Reasoning | Komplexe Fehler, Architektur |
xhigh |
Maximales Reasoning | Sicherheitsaudits, Tiefenanalyse |
Die unterstützten Stufen sind modellabhängig.
minimalist nur für GPT-5-Modelle verfügbar. Nicht alle Modelle unterstützen jede Stufe.
codex -c model_reasoning_effort="xhigh" "find the race condition"
Expertentipp:
xhigh-Reasoning kann für denselben Prompt 3–5× mehr Token verbrauchen alsmedium. Reservieren Sie es für wirklich schwierige Probleme, bei denen sich das zusätzliche Nachdenken auszahlt.
Modellwechsel
Wechseln Sie das Modell während einer Sitzung mit dem Slash-Befehl /model, oder legen Sie es pro Ausführung über --model / -m fest:
codex -m gpt-5.3-codex-spark "pair with me on this component"
Was kostet Codex?
Siehe auch Modellauswahl für Fähigkeiten und Entscheidungsrahmen für die Auswahl des richtigen Modells pro Aufgabe.
Zugang über ChatGPT-Pläne
Die Verfügbarkeit von Codex hängt von Ihrem ChatGPT-Plan und Ihren Organisationseinstellungen ab:53
| Plan | Preis | Codex-Zugang | Ratenlimits (5-Stunden-Fenster) |
|---|---|---|---|
| Free / Go | $0 / $5 | Zeitlich begrenzter Werbezugang | Niedrig |
| Plus | $20/Monat | Lokales CLI + Cloud-Aufgaben (2× Ratenlimits) | 45–225 lokale Nachrichten, 10–60 Cloud-Aufgaben |
| Pro | $200/Monat | Priorisierte Verarbeitung, GPT-5.3-Codex-Spark (2× Ratenlimits) | 300–1.500 lokale Nachrichten, 50–400 Cloud-Aufgaben |
| Business | $30/Benutzer/Monat | Teamzuweisung, größere Cloud-VMs, SAML SSO (2× Ratenlimits) | 45–225 lokale Nachrichten, 10–60 Cloud-Aufgaben |
| Enterprise / Edu | Vertrieb kontaktieren | Individuelle Zuweisung, Admin-Kontrollen, Audit-Logs | Skaliert mit Credits |
| API-Schlüssel | Nutzungsbasiert | CLI, SDK, nur IDE (keine Cloud-Funktionen) | Token-basiert |
Aktionspreise: Der kostenlose/Go-Zugang und die 2× Ratenlimits für kostenpflichtige Pläne fielen mit dem Start der Codex Desktop App zusammen (Februar 2026). Diese höheren Limits gelten für alle Oberflächen — App, CLI, IDE und Cloud. OpenAI hat kein Enddatum angekündigt.17
Credit-Kosten
Codex-Operationen verbrauchen Credits aus Ihrer Planzuweisung:
| Operation | Ungefähre Credits | Hinweise |
|---|---|---|
| Lokale Nachricht (GPT-5.3-Codex) | ~5 | Standard-Flaggschiff-Modell |
| Lokale Nachricht (GPT-5.1-Codex-Mini) | ~1 | 4× mehr Nachrichten pro Credit-Budget |
| Cloud-Aufgabe | ~25 | Läuft in von OpenAI verwalteter Umgebung |
| Code-Review (pro PR) | ~25 | Über /review oder Cloud-Review |
Enterprise- und Edu-Pläne skalieren Credits mit der Vertragszuweisung. Prüfen Sie
/statusim TUI für die aktuelle Nutzung.
API-Abrechnung
Bei Nutzung von Codex über die API berechnet OpenAI den Verbrauch pro Token gemäß der Standard-API-Preisgestaltung von OpenAI für das gewählte Modell (zuzüglich etwaiger Prompt-Caching-Rabatte). Aktuelle Tarife finden Sie auf der offiziellen API-Preisseite.21
Strategien zur Kostenoptimierung
- Profile verwenden: Erstellen Sie ein
fast-Profil mitgpt-5.1-codex-miniundmodel_reasoning_effort = "low"für Routineaufgaben - Hohes Reasoning reservieren: Verwenden Sie
xhighnur für wirklich schwierige Probleme, da es 3–5× mehr Token kostet --ephemeralverwenden: Überspringen Sie die Sitzungspersistenz in CI/CD, um den Overhead zu reduzieren- Reasoning-Zusammenfassungen minimieren: Setzen Sie
model_reasoning_summary = "none", wenn Sie keine Erklärungen benötigen - Mit Exec-Modus bündeln:
codex execvermeidet TUI-Overhead für Automatisierungs-Workflows - Nutzung überwachen: Prüfen Sie
/statusim TUI und die Abrechnungs-Dashboards Ihrer Organisation
Praxisnahe Kostenbeispiele
Repräsentative API-Kosten für häufige Aufgaben (gpt-5.3-codex zum Standardpreis, mittleres Reasoning):
| Aufgabe | Eingabe-Token | Ausgabe-Token | Ungefähre Kosten |
|---|---|---|---|
| Ein 500-Zeilen-Modul erklären | ~15K | ~2K | ~$0,25 |
| Einen fehlschlagenden Test beheben (1–2 Dateien) | ~30K | ~5K | ~$0,50 |
| Einen neuen API-Endpunkt mit Tests hinzufügen | ~60K | ~15K | ~$1,10 |
| Auth-Modul refaktorisieren (10 Dateien) | ~120K | ~30K | ~$2,25 |
Vollständiges Repo-Audit über codex exec |
~200K | ~20K | ~$3,00 |
| Cloud-Aufgabe: 20 offene Issues triagieren | ~250K | ~40K | ~$4,50 |
Die Kosten variieren je nach Reasoning-Aufwand, Caching und Konversationslänge. Verwenden Sie
gpt-5.1-codex-minifür Routineaufgaben, um die Kosten um ~40–60 % zu senken. Gecachte Eingabe-Token werden mit einem Rabatt abgerechnet.
Versteckter Token-Overhead
Jeder Tool-Aufruf verbraucht Token über Ihren sichtbaren Prompt hinaus:
| Overhead-Quelle | Ungefähre Kosten |
|---|---|
| System-Prompt + AGENTS.md | ~2–5K Token pro Runde (einmal geladen, danach gecacht) |
| Tool-Definitionen | ~500 Token pro registriertem Tool |
Dateilesevorgänge (@file) |
Vollständige Dateiinhalt-Token |
| MCP-Tool-Definitionen | ~200–500 Token pro verbundenem Server |
| Reasoning-Traces | Variabel; xhigh kann 3–5× Overhead hinzufügen |
Expertentipp: Überwachen Sie Ihren tatsächlichen Verbrauch über
/statusim TUI. Die Token-Anzahl umfasst den gesamten Overhead, nicht nur Ihre sichtbaren Nachrichten. Falls die Kosten Sie überraschen, prüfen Sie, wie viele MCP-Server verbunden sind — jeder fügt bei jedem API-Aufruf Tool-Definitionen hinzu.
Kostenmanagement für Teams
| Teamgröße | Empfohlene Konfiguration | Erwartete Monatskosten |
|---|---|---|
| Einzelentwickler | Standardmodell, medium-Reasoning |
$20–80 |
| Kleines Team (3–5) | Profile (fast/careful), Code-Reviews über codex exec |
$200–500 |
| Mittleres Team (10–20) | Enterprise-Plan, requirements.toml-Limits, CI-Integration |
$1.000–3.000 |
| Große Organisation (50+) | Enterprise mit Admin-Kontrollen, Audit-Logging, zugewiesenen Budgets | Individuelle Preisgestaltung |
Strategien zur Kostenkontrolle im Team:
- requirements.toml festlegen, um Modell- und Reasoning-Aufwand-Limits organisationsweit durchzusetzen
- gpt-5.1-codex-mini für CI/CD verwenden — automatisierte Pipelines benötigen selten maximales Reasoning
- Profilbasierte Budgetierung — definieren Sie ci-, review- und dev-Profile mit angemessenen Kostenobergrenzen
- Über OpenTelemetry überwachen — Enterprise-Bereitstellungen können Nutzungstelemetrie in bestehende Observability-Stacks exportieren
Entscheidungshilfen
Wann welche Oberfläche verwenden
| Szenario | Beste Oberfläche | Warum |
|---|---|---|
| Schneller Bugfix | CLI | Schnell, fokussiert, skriptfähig |
| Refactoring über mehrere Dateien | CLI oder App | CLI für deterministische Patches; App für visuelle Diff-Überprüfung |
| Unbekannten Code erkunden | CLI | Terminal-Komposierbarkeit, grep/find-Integration |
| Parallele Arbeitsströme | Desktop App | Worktree-Isolation, Multi-Task-Verwaltung |
| Aktive Dateibearbeitung | IDE Extension | Inline-Bearbeitungen, enger Compile-Test-Zyklus |
| Langwierige Migration | Cloud | Läuft unabhängig, erstellt PR nach Abschluss |
| CI/CD-Automatisierung | codex exec |
Nicht-interaktiv, JSON-Ausgabe, skriptfähig |
| Code-Review | CLI oder App | /review-Befehl mit Voreinstellungen |
| Team-Onboarding | Desktop App | Visuell, geführt, weniger Terminal-Kenntnisse erforderlich |
Wann welchen Sandbox-Modus verwenden
| Szenario | Modus | Genehmigung | Warum |
|---|---|---|---|
| Unbekannten Code erkunden | read-only |
untrusted |
Maximale Sicherheit, nichts kann beschädigt werden |
| Tägliche Entwicklung | workspace-write |
on-request |
Gute Balance zwischen Geschwindigkeit und Sicherheit |
| Vertrauenswürdige Automatisierung | workspace-write |
never |
Schnell, unterbrechungsfrei, in Sandbox ausgeführt |
| Systemadministration | danger-full-access |
on-request |
Benötigt vollen Zugriff, aber menschliche Genehmigung |
| CI/CD-Pipeline | workspace-write |
never |
Automatisiert, auf Workspace beschränkt |
Wann welche Reasoning-Stufe verwenden
| Aufgabentyp | Reasoning | Modell | Profil |
|---|---|---|---|
| Formatierung, Linting | low |
gpt-5.1-codex-mini |
fast |
| Standard-Programmierung | low-medium |
gpt-5.3-codex |
Standard |
| Komplexes Debugging | high |
gpt-5.3-codex |
careful |
| Sicherheitsaudit | xhigh |
gpt-5.3-codex |
careful |
| Schnelles Prototyping | low |
gpt-5.3-codex-spark |
fast |
| Migration/Refactoring | medium-high |
gpt-5.2-codex |
Standard |
Plan-Modus vs. direkte Ausführung
Will Codex need to change more than 3 files?
│
├── YES → Use Plan Mode (/plan)
│ Codex designs the approach BEFORE making changes.
│ You review and approve the plan.
│ Best for: refactors, new features, migrations
│
└── NO → Is the change well-defined?
│
├── YES → Direct execution
│ Just describe the task. Codex executes immediately.
│ Best for: bug fixes, small features, test additions
│
└── NO → Use Plan Mode (/plan)
Let Codex explore and propose an approach first.
Best for: unfamiliar codebases, ambiguous requirements
Steer-Modus: Enter vs. Tab
| Situation | Enter verwenden | Tab verwenden |
|---|---|---|
| Codex ist dabei, einen Fehler zu machen | Korrektur sofort senden | |
| Sie haben eine Folgeaufgabe | Für nach der aktuellen Arbeit einreihen | |
| Codex hat die falsche Datei gewählt | Umleitung sofort senden | |
| Sie möchten den Umfang erweitern | Ergänzung einreihen | |
| Dringende Prioritätsänderung | Neue Priorität sofort senden | |
| Unkritischer Kontext | Einreihen — keine Eile |
Faustregel: Enter = „Stopp, hör mir jetzt zu.” Tab = „Wenn du fertig bist, mach auch noch das.”
Desktop App vs. CLI
How do you prefer to work?
│
├── Terminal-first → Use CLI
│ │
│ ├── Single focused task → codex (interactive TUI)
│ ├── Scripted automation → codex exec (non-interactive)
│ └── Quick one-shot → codex exec "prompt" -o result.txt
│
└── Visual/multi-project → Use Desktop App
│
├── Multiple parallel tasks → Multi-thread with worktree isolation
├── Visual diff review → Built-in Git diff viewer
├── Scheduled automation → Automations tab
└── Voice-driven → Ctrl+M for voice dictation
| Funktion | CLI | Desktop App |
|---|---|---|
| Interaktive Sitzungen | Ja | Ja |
| Parallele Agenten | Manuell (mehrere Terminals) | Integriert (Worktree-Isolation) |
| Diff-Überprüfung | /diff (Text) |
Visuelle Inline-Diffs |
| Automatisierungen | Cron + codex exec |
GUI-Planer |
| Spracheingabe | Nein | Ja (Ctrl+M) |
| CI/CD-Integration | codex exec + GitHub Action |
Nein |
| Sitzungssynchronisierung | Ja | Ja (geteilt mit CLI) |
Welches Profil?
Ordnen Sie Ihre Aufgabe einem vorkonfigurierten Profil zu:
| Aufgabentyp | Profil | Wichtige Einstellungen |
|---|---|---|
| Schnelle Fragen, Formatierung | fast |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low" |
| Tägliche Entwicklung | (Standard) | model = "gpt-5.3-codex", model_reasoning_effort = "medium" |
| Architektur, Sicherheit | careful |
model = "gpt-5.3-codex", model_reasoning_effort = "xhigh" |
| Echtzeit-Pairing | pair |
model = "gpt-5.3-codex-spark", model_reasoning_effort = "high" |
| CI/CD-Automatisierung | ci |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low", sandbox_mode = "workspace-write" |
config.toml-Einrichtung:
# Default profile
profile = "default"
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
[profiles.pair]
model = "gpt-5.3-codex-spark"
model_reasoning_effort = "high"
[profiles.ci]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
sandbox_mode = "workspace-write"
Profil pro Sitzung wechseln: codex --profile careful
Wie funktioniert das Sandbox- & Approval-System?
Codex verwendet ein zweischichtiges Sicherheitsmodell, das trennt, was technisch möglich ist, von wann Codex um menschliche Genehmigung bittet. Der Ansatz unterscheidet sich grundlegend vom Berechtigungssystem von Claude Code — Codex erzwingt Einschränkungen auf der Ebene des Betriebssystem-Kernels.5 Siehe auch Enterprise Deployment für requirements.toml-Einschränkungen, die Administratoren organisationsweit durchsetzen.
Schicht 1: Sandbox (Was möglich ist)
Die Sandbox steuert den Dateisystem- und Netzwerkzugriff mithilfe betriebssystemnativer Mechanismen:
| Modus | Dateizugriff | Netzwerk | Implementierung |
|---|---|---|---|
read-only |
Überall nur Lesezugriff | Blockiert | Strengster Modus; Änderungen erfordern explizite Genehmigung |
workspace-write |
Lesen/Schreiben im Workspace + /tmp |
Standardmäßig blockiert | Normale Entwicklung; sicherer Standard |
danger-full-access |
Voller Maschinenzugriff | Aktiviert | Maximale Fähigkeit; mit Vorsicht verwenden |
Plattformspezifische Durchsetzung:
- macOS: Apples Seatbelt-Framework über
sandbox-execmit modusspezifischen Profilen, die zur Laufzeit kompiliert und vom Kernel durchgesetzt werden6 - Linux: Landlock für Dateisystem-Einschränkungen + seccomp für Syscall-Filterung. Ein eigenständiger Hilfsprozess (
codex-linux-sandbox) bietet Defense-in-Depth-Isolation.5 Bubblewrap (bwrap) wird mitgeliefert und als Teil des Linux-Builds kompiliert (von optional zu fester Bestandteil in v0.100.0)7 - Windows: Native Sandbox mit eingeschränkten Tokens (von experimentell zu stabil in v0.100.0). WSL wird ebenfalls unterstützt (erbt Linux Landlock + seccomp)
Warum das wichtig ist: Im Gegensatz zu containerbasierten Sandboxing-Lösungen (Docker) ist Sandboxing auf Betriebssystemebene schneller, leichter und schwerer zu umgehen. Der Kernel erzwingt Einschränkungen, bevor Codex den Systemaufruf überhaupt sieht.
Sicherheitskorrekturen:
- zsh-fork Sandbox-Bypass (v0.106.0): Eine Schwachstelle wurde behoben, bei der Shell-Ausführung über zsh-Forking die Sandbox-Einschränkungen umgehen konnte.62 Falls Sie eine frühere Version verwenden, aktualisieren Sie sofort.
- Eingabegrößenlimit (v0.106.0): Codex erzwingt jetzt ein Eingabelimit von ungefähr 1 Million Zeichen, um Hänger durch übermäßig große Payloads zu verhindern.62
- Linux /dev-Dateisystem (v0.105.0): Sandboxed-Befehle unter Linux erhalten jetzt ein minimales /dev-Dateisystem, was die Kompatibilität mit Tools verbessert, die Geräteknoten erwarten.63
ReadOnlyAccess-Richtlinie (v0.100.0+): Eine konfigurierbare Richtlinienform für granulare Lesezugriffskontrolle. Verwenden Sie sie, um einzuschränken, aus welchen Verzeichnissen Codex lesen kann, selbst im workspace-write-Modus:
[sandbox_workspace_write]
read_only_access = ["/etc", "/usr/local/share"] # Only these paths readable outside workspace
Schicht 2: Approval-Richtlinie (Wann gefragt wird)
Die Approval-Richtlinie bestimmt, wann Codex pausiert und um menschliche Bestätigung bittet:
| Richtlinie | Verhalten | Anwendungsfall |
|---|---|---|
untrusted |
Führt sichere Lesevorgänge automatisch aus; fragt bei allem anderen | Höchste Vertrauenshürde; unbekannte Repositories |
on-failure |
Führt automatisch aus bis etwas fehlschlägt, fragt dann | Halbautomatisiert; fängt Fehler ab |
on-request |
Genehmigt innerhalb der Sandbox; fragt bei Grenzüberschreitungen | Standard; gute Balance |
never |
Keinerlei Eingabeaufforderungen | CI/CD, vertrauenswürdige Automatisierung |
Eindeutige Approval-IDs (v0.104.0+)
Codex weist jetzt jedem Befehl innerhalb einer mehrstufigen Shell-Ausführung eindeutige Approval-IDs zu. Das bedeutet, dass Genehmigungen granular sind — die Genehmigung eines Befehls in einer Sequenz genehmigt nicht automatisch nachfolgende Befehle in derselben Shell-Aufrufung.51
Flexible Approval-Steuerung (v0.105.0+)
Der Genehmigungsablauf unterstützt jetzt zusätzliche Sandbox-Berechtigungen und granulare Ablehnung:63
- Zusätzliche Sandbox-Berechtigungen: Wenn ein Befehl Zugriff über den aktuellen Sandbox-Modus hinaus benötigt, kann Codex spezifische zusätzliche Berechtigungen anfordern, anstatt einen vollständigen Moduswechsel zu erfordern
- Granulare Ablehnung: Lehnen Sie einzelne Tool-Aufrufe mit Feedback ab, damit Codex seinen Ansatz anpassen kann, anstatt einfach denselben Befehl erneut zu versuchen
Das --full-auto-Flag
--full-auto ist ein Kurzalias für:
codex --sandbox workspace-write --ask-for-approval on-request
Wichtiger Fallstrick: --full-auto überschreibt jeden expliziten --sandbox-Wert. Wenn Sie --full-auto --sandbox read-only übergeben, erhalten Sie workspace-write, weil --full-auto Vorrang hat.8
Empfohlene Konfigurationen
Tägliche Entwicklung (sicherer Standard):
sandbox_mode = "workspace-write"
approval_policy = "on-request"
Power-User (voller Zugriff, Mensch in der Schleife):
sandbox_mode = "danger-full-access"
approval_policy = "untrusted"
Diese Kombination ist der von der Community empfohlene „Sweet Spot”: maximale Fähigkeit, aber Genehmigung für jeden Befehl erforderlich.9
CI/CD-Automatisierung:
sandbox_mode = "workspace-write"
approval_policy = "never"
Netzwerkzugriff aktivieren
Codex blockiert den Netzwerkzugriff standardmäßig im workspace-write-Modus. Aktivieren Sie ihn bei Bedarf:
# Per-run
codex -c 'sandbox_workspace_write.network_access=true' "install the packages"
# In config.toml
[sandbox_workspace_write]
network_access = true
writable_roots = ["/path/to/extra/dir"] # Additional writable directories
exclude_slash_tmp = false # Prevent /tmp from being writable
exclude_tmpdir_env_var = false # Prevent $TMPDIR from being writable
WebSocket-Proxy-Unterstützung (v0.104.0+)
Für Unternehmensumgebungen, die WebSocket-Datenverkehr über einen Proxy leiten, unterstützt Codex jetzt die Umgebungsvariablen WS_PROXY und WSS_PROXY:51
export WSS_PROXY="https://proxy.corp.example.com:8443"
codex "update the README"
Diese ergänzen die bestehende HTTPS_PROXY- und SOCKS5-Proxy-Unterstützung (v0.93.0+) und decken alle Transportschichten ab.
Die Sandbox testen
Überprüfen Sie das Sandbox-Verhalten, bevor Sie ihr vertrauen:
codex sandbox macos --full-auto -- ls /etc/passwd # macOS test
codex sandbox linux --full-auto -- cat /etc/shadow # Linux test
Wenn die Sandbox korrekt funktioniert, sollten beide Befehle mit einem Berechtigungsfehler fehlschlagen — die Sandbox verhindert das Lesen sensibler Systemdateien selbst im --full-auto-Modus. Wenn einer der Befehle erfolgreich ist, muss Ihre Sandbox-Konfiguration untersucht werden.
Wie funktioniert AGENTS.md?
AGENTS.md ist das Projektanweisungssystem von Codex — ein offener Standard10, der jetzt von der Agentic AI Foundation der Linux Foundation verwaltet wird. Unterstützt von Codex, Cursor, Copilot, Amp, Jules (Google), Gemini CLI, Windsurf, Cline, Aider, Zed, Factory, RooCode und über 60.000 Open-Source-Projekten. Es definiert, wie sich Codex innerhalb eines bestimmten Repositories oder Verzeichnisses verhält. Siehe Skills für wiederverwendbare Expertisepakete, die AGENTS.md ergänzen.
Erkennungshierarchie
Codex baut beim Sitzungsstart eine Anweisungskette auf, indem es den Verzeichnisbaum durchläuft:
- Global (
~/.codex/):AGENTS.override.md>AGENTS.md - Projekt (Git-Root bis aktuelles Verzeichnis): Jede Ebene wird auf
AGENTS.override.md>AGENTS.md> Fallback-Dateinamen geprüft - Zusammenführung: Dateien werden von der Wurzel abwärts konkateniert; nähere Dateien erscheinen später im Prompt und überschreiben frühere Anweisungen
~/.codex/AGENTS.md ← Global defaults
└─ /repo/AGENTS.md ← Project-wide rules
└─ /repo/services/AGENTS.md ← Service-specific rules
└─ /repo/services/payments/
AGENTS.override.md ← Overrides everything above for this dir
Was eine großartige AGENTS.md ausmacht
Basierend auf direkten Empfehlungen von Codex selbst und Community-Mustern11:
EMPFOHLEN:
- Seien Sie spezifisch: "Use rg --files for discovery" ist besser als "search efficiently"
- Definieren Sie Abschlusskriterien: Was bedeutet „fertig”? (Tests bestehen, Lint sauber, etc.)
- Fügen Sie Befehle hinzu: Build, Test, Lint, Format (exakte Aufrufe)
- Organisieren Sie nach Aufgaben: Abschnitte für Coding, Review, Release, Incident/Debug
- Definieren Sie Eskalation: Was tun bei Blockierung oder unerwartetem Zustand
VERMEIDEN: - Komplette Style Guides ohne Ausführungsregeln einfügen - Mehrdeutige Anweisungen verwenden („sei vorsichtig”, „optimiere”) - Widersprüchliche Prioritäten mischen (Geschwindigkeit + erschöpfende Verifizierung + kein Laufzeitbudget) - Prosadokumentation schreiben (AGENTS.md ist operative Richtlinie, keine README)
Beispiel: Produktionsreife AGENTS.md
# Repository Guidelines
## Build, Test, and Development Commands
- Run API (dev): `python3 -m uvicorn main:app --reload`
- Install deps: `pip install -r requirements.txt`
- Lint: `python3 -m ruff check .` (auto-fix: `--fix`)
- Format: `python3 -m ruff format .`
- Tests: `python3 -m pytest -v`
- Coverage: `python3 -m pytest --cov=app --cov-report=term-missing`
## Coding Style & Naming Conventions
- Python 3.11+. Type hints on all functions.
- Ruff enforced: 88-char lines, double quotes, spaces for indent.
- Naming: modules `snake_case.py`, classes `PascalCase`, functions `snake_case`.
## Commit & Pull Request Guidelines
- Conventional Commits: `feat:`, `fix:`, `docs:`, `refactor:`, `chore:`, `test:`
- Commits should be small and focused.
- PRs must include: description, test plan, and screenshots for UI changes.
## Sicherheit
- Committen Sie niemals Geheimnisse. Verwenden Sie `.env` für lokale Konfiguration.
- Validieren Sie alle externen API-Aufrufe mit ordnungsgemäßer Fehlerbehandlung.
Der Override-Mechanismus
AGENTS.override.md auf jeder Verzeichnisebene ersetzt die normale AGENTS.md für diesen Geltungsbereich. Verwenden Sie dies für:
- Release-Freezes: „Keine neuen Funktionen, nur Fehlerbehebungen”
- Incident-Modus: „Alle Änderungen müssen vom Bereitschaftsdienst geprüft werden”
- Temporäre Härtung: „Keine Abhängigkeitsaktualisierungen in diesem Sprint”
Konfiguration
# Custom fallback filenames (in addition to AGENTS.md)
project_doc_fallback_filenames = ["TEAM_GUIDE.md", ".agents.md"]
# Increase max size for large instruction files
project_doc_max_bytes = 65536 # 64 KiB (default: 32 KiB)
Scaffold-Generierung
codex # Launch TUI
/init # Generate AGENTS.md scaffold
Oder überprüfen Sie Ihre Anweisungskette:
codex --ask-for-approval never "Summarize your current instructions"
Hooks
Codex hat Hooks in v0.99.0 (AfterAgent) und v0.100.0 (AfterToolUse) eingeführt. Das Hook-System befindet sich im Vergleich zu den über 12 Lifecycle-Events von Claude Code noch in einem frühen Stadium, bietet aber Automatisierungseinstiegspunkte für gängige Workflows.
Verfügbare Hook-Events
| Event | Wann es ausgelöst wird | Eingeführt |
|---|---|---|
AfterAgent |
Nachdem der Agent einen vollständigen Durchlauf abgeschlossen hat | v0.99.0 |
AfterToolUse |
Nach Abschluss jedes einzelnen Tool-Aufrufs | v0.100.0 |
Hook-Konfiguration
Hooks werden in .codex/config.toml konfiguriert:
[[hooks]]
event = "AfterToolUse"
command = "echo 'Tool completed' >> /tmp/codex-log.txt"
Nachbildung von Claude Code-Hook-Mustern
Wenn Sie von Claude Code migrieren, können Sie ähnliche Automatisierung auch ohne den vollständigen Hook-Event-Satz erreichen:
| Claude Code-Muster | Codex-Alternative |
|---|---|
PreToolUse-Dateiblockierung |
AGENTS.md-Anweisungen + Sandbox-Modus read-only |
PostToolUse-Linting |
AfterToolUse-Hook mit Ihrem Linter |
SessionStart-Kontextinjektion |
AGENTS.md (wird automatisch bei jeder Sitzung geladen) |
SubagentStop-Benachrichtigung |
AfterAgent-Hook mit Benachrichtigungsskript |
| Asynchrone Hooks | Noch nicht unterstützt; verwenden Sie Cloud-Tasks für Hintergrundarbeiten |
Expertentipp: Das Hook-System wird aktiv erweitert. Prüfen Sie das Codex-Changelog auf neue Hook-Events in jeder Version.
Was ist MCP (Model Context Protocol)? [EXPERIMENTAL]
MCP erweitert die Fähigkeiten von Codex durch die Verbindung mit externen Tools und Diensten. Die Befehlsgruppe codex mcp ist derzeit als experimentell gekennzeichnet, und Befehle sowie das Konfigurationsformat können sich zwischen Versionen ändern. Codex unterstützt zwei Transporttypen: STDIO (lokale Prozesse) und Streamable HTTP (Remote-Server).12
MCP-Server konfigurieren
STDIO-Server (lokale Prozesse):
# In ~/.codex/config.toml or .codex/config.toml
[mcp_servers.context7]
enabled = true
required = true # Fail startup if unavailable
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
env = { "MY_VAR" = "value" } # Static env vars
env_vars = ["PATH", "HOME"] # Forward host env vars
cwd = "/path/to/project" # Optional working directory
startup_timeout_sec = 10
tool_timeout_sec = 60
enabled_tools = ["search", "summarize"] # Tool allowlist
disabled_tools = ["slow-tool"] # Tool denylist
HTTP-Server (Remote):
[mcp_servers.figma]
enabled = true
url = "https://mcp.figma.com/mcp"
bearer_token_env_var = "FIGMA_OAUTH_TOKEN"
http_headers = { "X-Figma-Region" = "us-east-1" }
env_http_headers = { "X-Org-Id" = "FIGMA_ORG_ID" } # Headers from env vars
startup_timeout_sec = 10
tool_timeout_sec = 60
CLI-Verwaltung
codex mcp add context7 -- npx -y @upstash/context7-mcp
codex mcp add context7 --env API_KEY=... -- npx -y @upstash/context7-mcp # With env vars
codex mcp add figma --url https://mcp.figma.com/mcp --bearer-token-env-var FIGMA_OAUTH_TOKEN
codex mcp list # List all configured servers
codex mcp list --json # JSON output
codex mcp get context7 # Show server config
codex mcp get context7 --json # JSON output
codex mcp login <server> # OAuth flow for HTTP servers
codex mcp logout <server> # Remove OAuth credentials
codex mcp remove <server> # Delete server definition
Innerhalb einer Sitzung: /mcp zeigt aktive Server und verfügbare Tools an.
Codex als MCP-Server betreiben
Codex kann sich selbst als MCP-Server für Multi-Agent-Orchestrierung bereitstellen:13
codex mcp-server # Start as MCP server (stdio transport)
Der Server stellt zwei Tools bereit:
1. codex(): Startet eine neue Sitzung mit Prompt-, Sandbox-, Modell- und Genehmigungsparametern
2. codex-reply(): Setzt eine bestehende Sitzung mit threadId und Prompt fort
Verwendung mit dem Agents SDK (Python):
from agents import Agent, Runner
from agents.mcp import MCPServerStdio
async with MCPServerStdio(
name="Codex CLI",
params={"command": "npx", "args": ["-y", "codex", "mcp-server"]},
client_session_timeout_seconds=360000,
) as codex_mcp_server:
agent = Agent(name="Developer", mcp_servers=[codex_mcp_server])
result = await Runner.run(agent, "Fix the failing tests")
Bemerkenswerte MCP-Server
| Server | Zweck | Installation |
|---|---|---|
| Context7 | Aktuelle Bibliotheksdokumentation | npx -y @upstash/context7-mcp |
| Figma | Zugriff auf Designdateien | HTTP: https://mcp.figma.com/mcp |
| Playwright | Browser-Automatisierung | npx -y @anthropic/mcp-playwright |
| Sentry | Fehlerüberwachung | HTTP: https://mcp.sentry.dev/mcp |
| GitHub | Repository-Operationen | npx -y @anthropic/mcp-github |
Praktische Muster
Muster 1: Kontextbewusste Entwicklung — Kombinieren Sie Context7 mit Ihrer Framework-Dokumentation, damit Codex immer aktuelle API-Referenzen hat:
[mcp_servers.context7]
enabled = true
required = true
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
Muster 2: Ausgabebegrenzungen — MCP-Tool-Antworten werden standardmäßig bei ca. 25.000 Zeichen abgeschnitten. Verwenden Sie bei Tools, die große Nutzlasten zurückgeben (Datenbankabfragen, Log-Erfassungen), enabled_tools, um auf bestimmte Tools zu beschränken und die Antworten fokussiert zu halten.
Muster 2a: Multimodale Tool-Ausgabe (v0.107.0) — Benutzerdefinierte Tools können jetzt multimodale Ausgaben (Bilder, Rich Content) zusammen mit Text zurückgeben. Dies ermöglicht es Tools, die visuelle Artefakte erzeugen — Screenshots, Diagramme, Chart-Renderings —, diese direkt zur Analyse an das Modell weiterzugeben.64
Muster 3: Enterprise-MCP-Governance — Legen Sie über requirements.toml fest, welche MCP-Server Entwickler verwenden dürfen:
# In /etc/codex/requirements.toml — only approved servers allowed
[mcp_servers.approved-internal]
identity = { command = "npx @company/internal-mcp" }
Jeder Server, der nicht mit einer Identität in requirements.toml übereinstimmt, wird beim Start blockiert. Siehe Enterprise-Bereitstellung für die vollständige Richtlinienkonfiguration.
JavaScript REPL Runtime [EXPERIMENTAL]
Codex v0.100.0 hat eine experimentelle JavaScript REPL Runtime (js_repl) eingeführt, die den Zustand über Tool-Aufrufe hinweg beibehält. In v0.106.0 wurde die REPL zum Slash-Befehl /experimental befördert und enthält Kompatibilitätsprüfungen beim Start — sie erfordert Node.js 22.22.0 oder höher.62
Aktivierung der JS REPL:
# In config.toml
[features]
js_repl = true
Oder aktivieren Sie sie innerhalb einer Sitzung über /experimental im TUI.
Anwendungsbeispiel: Wenn aktiviert, kann Codex den Zustand über Tool-Aufrufe innerhalb einer Sitzung beibehalten:
// Codex can accumulate data across multiple tool calls
const results = await fetchTestResults();
const failures = results.filter(r => r.status === "failed");
console.log(`${failures.length} failures out of ${results.length} tests`);
// Variable 'failures' persists and is available in subsequent tool calls
Anforderungen: Node.js 22.22.0+ (Kompatibilitätsprüfungen beim Start). v0.105.0 hat die Fehlerberichterstattung und Wiederherstellung bei REPL-Ausfällen verbessert.63
Diese Funktion ist experimentell. Die Schnittstelle kann sich zwischen Versionen ändern.
Was sind Skills?
Skills sind wiederverwendbare, aufgabenspezifische Fähigkeitspakete, die Codex bei Bedarf lädt. Sie folgen dem offenen Agent-Skills-Standard.14
Skill-Struktur
my-skill/
SKILL.md (required: instructions)
scripts/ (optional: executable scripts)
references/ (optional: reference docs)
assets/ (optional: images, icons)
agents/openai.yaml (optional: metadata, UI, dependencies)
Auffindungsorte
Codex speichert vom Benutzer installierte Skills in $CODEX_HOME/skills (Standard: ~/.codex/skills), einschließlich integrierter System-Skills unter .system/. Codex unterstützt symbolisch verknüpfte Skill-Ordner.
| Geltungsbereich | Pfad |
|---|---|
| Projekt/Team | Skill-Ordner im Repository (Layout kann je nach Version variieren) |
| Benutzer | ~/.codex/skills/ (oder $CODEX_HOME/skills/) |
| Administrator | /etc/codex/skills/ |
| System | Von OpenAI gebündelt (unter ~/.codex/skills/.system/) |
Einen Skill erstellen
SKILL.md-Format:
---
name: security-audit
description: Run a thorough security audit on the codebase.
---
## Sicherheitsaudit-Verfahren
1. Suchen Sie nach hartcodierten Geheimnissen mit `rg -i "(api_key|password|secret|token)\s*=" --type py`
2. Prüfen Sie auf SQL-Injection: Suchen Sie nach String-Interpolation in Abfragen
3. Überprüfen Sie die Eingabevalidierung an allen API-Endpunkten
4. Prüfen Sie Abhängigkeiten auf Schwachstellen: `pip audit` oder `npm audit`
5. Überprüfen Sie Authentifizierungs- und Autorisierungsmuster
6. Dokumentieren Sie Ergebnisse mit Schweregraden (Critical/High/Medium/Low)
Metadaten (agents/openai.yaml):
interface:
display_name: "Security Audit"
short_description: "Full codebase security review"
icon_small: "./assets/shield.svg"
brand_color: "#DC2626"
default_prompt: "Run a security audit on this repository"
policy:
allow_implicit_invocation: false # Require explicit $skill
dependencies:
tools:
- type: "mcp"
value: "snyk"
transport: "streamable_http"
url: "https://mcp.snyk.io/mcp"
Skills aufrufen
- Explizit:
/skills-Menü oder$skill-name-Erwähnung im Prompt - Implizit: Codex erkennt automatisch passende Skills anhand der Aufgabenbeschreibung (wenn
allow_implicit_invocation: true) - Erstellen: Verwenden Sie
$skill-creator, um interaktiv einen neuen Skill zu erstellen - Installieren: Verwenden Sie
$skill-installer install <name>, um Community-Skills zu installieren
Aktivieren/Deaktivieren
[[skills.config]]
path = "/path/to/skill/SKILL.md"
enabled = false
Skills vs. Slash Commands
| Skills | Slash Commands | |
|---|---|---|
| Definiert in | SKILL.md-Dateien mit optionalen Metadaten |
Fest in die Codex-CLI-Binärdatei integriert |
| Geltungsbereich | Projekt-, Benutzer- oder Admin-Ebene | Global (immer verfügbar) |
| Aufruf | $skill-name im Prompt, /skills-Menü oder implizite Erkennung |
/command-Syntax |
| Anpassbar | Vollständig — Sie schreiben die Anweisungen | Festes Verhalten |
| Abhängigkeiten | Können MCP-Server-Anforderungen deklarieren | Keine |
| Teilen | Skill-Ordner ins Team-Repository oder ~/.codex/skills/ kopieren |
Nicht teilbar |
Skills debuggen
Wenn ein Skill nicht aktiviert wird:
- Prüfen Sie die Erkennung:
/skillssollte ihn im TUI auflisten - Überprüfen Sie den Pfad: Stellen Sie sicher, dass der Skill-Ordner an einem erkannten Speicherort liegt (
~/.codex/skills/, Projektstammverzeichnis oder/etc/codex/skills/) - Prüfen Sie
enabled: Skills mitenabled = falsein config.toml werden nicht geladen - Prüfen Sie die implizite Aktivierung: Wenn Sie auf automatische Erkennung setzen, stellen Sie sicher, dass
allow_implicit_invocation: trueinagents/openai.yamlgesetzt ist - Verwenden Sie Schlüsselwörter: Fügen Sie die
description-Begriffe des Skills in Ihren Prompt ein, um die implizite Zuordnung zu verbessern
Praxisbeispiel: Deploy-Skill
Ein vollständiger Skill mit mehreren Dateien, der Referenzen und Skripte gemeinsam nutzt:
deploy-skill/
SKILL.md
references/
runbook.md
rollback-checklist.md
scripts/
pre-deploy-check.sh
smoke-test.sh
agents/openai.yaml
SKILL.md:
---
name: deploy
description: Deploy the application to staging or production. Runs pre-flight checks, executes deployment, and verifies with smoke tests.
---
## Deployment Procedure
### Pre-flight
1. Run `scripts/pre-deploy-check.sh` to verify:
- All tests pass
- No uncommitted changes
- Branch is up to date with remote
2. Review the runbook at `references/runbook.md` for environment-specific steps.
### Deploy
3. Execute the deployment command for the target environment.
4. Monitor logs for errors during rollout.
### Verify
5. Run `scripts/smoke-test.sh <environment-url>` to confirm critical paths.
6. If smoke tests fail, follow `references/rollback-checklist.md`.
Aufruf mit: $deploy to staging oder $deploy production with canary rollout
Plan-Modus & Zusammenarbeit
Der Plan-Modus ermöglicht es Codex, einen Ansatz zu entwerfen, bevor Änderungen ausgeführt werden. Er ist standardmäßig aktiviert (seit v0.94.0).15 Siehe Entscheidungsrahmen für den Entscheidungsbaum „Plan-Modus vs. direkte Ausführung”.
Plan-Modus aktivieren
/plan # Switch to plan mode
/plan "redesign the API layer" # Plan mode with initial prompt
Im Plan-Modus: - Liest Codex Dateien und analysiert die Codebasis - Schlägt einen Implementierungsplan vor - Nimmt keine Änderungen vor, bis Sie zustimmen - Streamt den Plan in einer dedizierten TUI-Ansicht
Steer-Modus
Der Steer-Modus (standardmäßig aktiviert seit v0.98.0) ermöglicht es Ihnen, neue Anweisungen einzugeben, während Codex aktiv arbeitet, ohne die laufende Aufgabe zu unterbrechen.15
Es gibt zwei Eingabemethoden:
| Eingabe | Verhalten | Wann verwenden |
|---|---|---|
| Enter | Sendet Anweisungen sofort; Codex sieht sie während des aktuellen Durchgangs | Dringende Korrekturen („Stopp — diese Datei nicht ändern”), Klarstellungen („Die Konfiguration liegt in /etc/app.conf, nicht am Standardpfad”) oder Prioritätsänderungen („Konzentriere dich zuerst auf die Tests”) |
| Tab | Reiht Anweisungen für den nächsten Durchgang ein; Codex beendet zunächst die aktuelle Arbeit | Folgeaufgaben („danach auch das Changelog aktualisieren”), Erweiterungen des Umfangs („wenn du fertig bist, führe den Linter aus”) oder nicht dringender Kontext („das Deploy-Ziel ist Staging, nicht Prod”) |
Praktische Beispiele:
# Codex is refactoring the auth module...
[Enter] "Use bcrypt instead of argon2 — we already have it as a dependency"
→ Codex adjusts immediately, mid-turn
[Tab] "Once auth is done, update the migration script too"
→ Codex finishes auth refactor, then starts the migration
Der Steer-Modus ist im TUI immer aktiv. Wenn Sie lieber warten möchten, bis Codex fertig ist, bevor Sie Anweisungen geben, tippen Sie einfach normal nach Abschluss des Durchgangs — kein spezieller Modus erforderlich.
TUI-Verbesserungen (v0.105.0–v0.106.0)
Syntaxhervorhebung (v0.105.0): Das TUI hebt nun eingebettete Codeblöcke und Diffs mit Syntaxhervorhebung hervor. Verwenden Sie /theme, um ein Farbschema auszuwählen.63
Neue TUI-Befehle (v0.105.0+):63
| Befehl / Taste | Beschreibung |
|---|---|
/copy |
Letzte Antwort in die Zwischenablage kopieren |
/clear |
TUI-Bildschirm leeren |
Ctrl+L |
Bildschirm leeren (Tastenkombination) |
/theme |
Farbschema für Syntaxhervorhebung wechseln |
Sprachtranskription (v0.105.0, experimentell): Drücken Sie die Leertaste, um Prompts per Sprachtranskription zu diktieren. Diese Funktion ist experimentell und erfordert möglicherweise Mikrofonberechtigungen.63 Ab v0.107.0 unterstützen Echtzeit-Sprachsitzungen die Auswahl von Mikrofon- und Lautsprechergeräten, sodass Sie bestimmte Audio-Ein-/Ausgabehardware auswählen können.64
Weitere Verbesserungen:
- Lange Links bleiben nun anklickbar, auch wenn sie über mehrere TUI-Zeilen umgebrochen werden (v0.105.0)63
- Lokale Dateilinks werden mit verbesserter Formatierung dargestellt (v0.106.0)62
- Die Ctrl+C-Behandlung für Sub-Agents wurde korrigiert, sodass Kindprozesse ordnungsgemäß beendet werden (v0.106.0)62
Gedächtnissystem
Codex verfügt über ein persistentes Gedächtnissystem (v0.100.0+), das Fakten, Präferenzen und Projektkontext sitzungsübergreifend speichert.25
Gedächtnis-Befehle
| Befehl | Beschreibung |
|---|---|
/m_update <fact> |
Einen Eintrag speichern (z. B. /m_update always use pytest, never unittest) |
/m_drop <query> |
Einen Eintrag entfernen, der zur Abfrage passt |
Einträge werden als Markdown-Dateien unter ~/.codex/memory/ gespeichert. Codex lädt sie beim Sitzungsstart und nutzt sie, um das Verhalten in allen zukünftigen Sitzungen zu beeinflussen.
Was gespeichert werden sollte
Gedächtniseinträge eignen sich am besten für dauerhafte Präferenzen und Projektfakten:
- Projektkonventionen: „Dieses Projekt verwendet Tabs, keine Leerzeichen” oder „API-Antworten enthalten immer ein
meta-Feld” - Tool-Präferenzen: „Verwende
pnpmstattnpm” oder „Führe Tests mitpytest -x --tb=shortaus” - Architekturentscheidungen: „Das Auth-Modul befindet sich in
src/core/auth/, nicht insrc/middleware/“ - Workflow-Präferenzen: „Führe immer den Linter aus, bevor du mir einen Diff zeigst”
Gedächtnis in Pipelines
Beim Ausführen von codex exec werden Gedächtniseinträge automatisch geladen. Das bedeutet, dass CI/CD-Pipelines und Skripte vom gleichen Kontext profitieren wie interaktive Sitzungen — Anweisungen müssen nicht bei jedem Aufruf wiederholt werden.
Gedächtnis-Verfeinerungen (v0.101.0–v0.107.0)
- Geheimnis-Bereinigung: Gedächtniseinträge werden vor dem Schreiben auf die Festplatte automatisch auf Geheimnisse überprüft
- Arbeitsverzeichnis-Erkennung: Gedächtnisdateien enthalten nun den Arbeitsverzeichnis-Kontext für projektspezifischen Abruf
- Ausschluss von Entwicklernachrichten: Entwickler-/Systemnachrichten werden von der Phase-1-Gedächtniseingabe ausgeschlossen, was die Gedächtnisqualität verbessert, indem der Fokus auf Benutzerinteraktionen liegt
- Diff-basiertes Vergessen (v0.106.0): Das Gedächtnis verwendet nun diff-basiertes Vergessen, um veraltete Fakten zu entfernen und den Gedächtnisspeicher schlank und relevant zu halten62
- Nutzungsbasierte Auswahl (v0.106.0): Der Gedächtnisabruf ist nun nutzungsbasiert und priorisiert häufig abgerufene und kürzlich relevante Einträge62
- Konfigurierbares Gedächtnis (v0.107.0): Gedächtniseinträge sind nun vollständig konfigurierbar. Verwenden Sie
codex debug clear-memories, um alle gespeicherten Einträge zurückzusetzen — nützlich beim Wechsel zwischen nicht zusammenhängenden Projekten oder wenn der Gedächtniszustand abgedriftet ist64
Gedächtnis vs. AGENTS.md
| Anwendungsfall | Gedächtnis (/m_update) |
AGENTS.md |
|---|---|---|
| Persönliche Präferenzen | Gedächtnis verwenden (bleibt projektübergreifend erhalten) | Nicht geeignet |
| Projektkonventionen | Beides (Gedächtnis für persönlichen Abruf, AGENTS.md für Teamaustausch) | AGENTS.md für das Team |
| Architekturentscheidungen | AGENTS.md (geteilter Kontext) | Primäre Wahl |
| Tool-Befehle | Gedächtnis (schnelle persönliche Referenz) | AGENTS.md für das Team |
Tipp: Verwenden Sie
/m_updatefür Fakten, die dauerhaft gespeichert bleiben sollen. Für sitzungsspezifischen Kontext teilen Sie Codex die Information einfach direkt im Gespräch mit. Für geteilten Teamkontext verwenden Sie AGENTS.md.
Sitzungsverwaltung
Codex speichert Sitzungen unter ~/.codex/sessions/ und ermöglicht so das Fortsetzen, Verzweigen und parallele Arbeiten über CLI und Desktop-Oberflächen hinweg.
Fortsetzen
Setzen Sie dort fort, wo Sie aufgehört haben:
codex resume # Interactive picker (sorted by recency)
codex resume <SESSION_ID> # Resume a specific session
codex exec resume --last "continue" # Non-interactive: resume most recent
Der /resume-Slash-Befehl innerhalb der TUI öffnet denselben interaktiven Auswahldialog mit Suchfunktion.
Verzweigen (Fork)
Verzweigen Sie eine Konversation, um Alternativen zu erkunden, ohne Ihren aktuellen Fortschritt zu verlieren:
/fork # Fork current conversation
/fork "try a different approach" # Fork with new prompt
Forks erstellen unabhängige Threads, die dieselbe Historie bis zum Verzweigungspunkt teilen. Änderungen in einem Fork wirken sich nicht auf den anderen aus. Dies ist nützlich, um Ansätze zu vergleichen (z. B. „verzweigen und Redis statt Memcached ausprobieren”) oder riskante Änderungen sicher zu erkunden.
Thread-Verzweigung in Sub-Agenten (v0.107.0): Threads können nun in unabhängige Sub-Agenten verzweigt werden, sodass eine Konversation parallele Arbeitsströme erzeugen kann, die autonom ausgeführt werden. Dies erweitert das bestehende Fork-Modell — statt die Konversation nur zu verzweigen, wird der verzweigte Thread zu einem Sub-Agenten mit eigenem Ausführungskontext.64
Thread-Übersicht
Aktive Sitzungen anzeigen und verwalten:
/status # Current session info and token usage
/ps # Show background terminals in session
In der Desktop-App sind Threads in der Seitenleiste mit vollständiger Historie und Diff-Vorschau sichtbar.
Sitzungslebenszyklus
| Aktion | CLI | Desktop App |
|---|---|---|
| Neu starten | codex oder /new |
Schaltfläche „Neuer Thread” |
| Fortsetzen | codex resume oder /resume |
Thread in der Seitenleiste anklicken |
| Verzweigen | /fork |
Rechtsklick auf Thread → Fork |
| Beenden | /quit oder Ctrl+C |
Thread-Tab schließen |
| Löschen | Aus ~/.codex/sessions/ entfernen |
Rechtsklick → Löschen |
Sitzungen werden zwischen CLI und Desktop App synchronisiert — beginnen Sie in einer Oberfläche und fahren Sie in der anderen fort.
Nicht-interaktiver Modus (codex exec)
codex exec führt Codex nicht-interaktiv aus — für Skripting, CI/CD und Automatisierung.16
Grundlegende Verwendung
codex exec "summarize the repository structure"
codex exec --full-auto "fix the CI failure"
codex exec --json "triage open bugs" -o result.txt
Standardmäßig schreibt codex exec Fortschritts-/Ereignismeldungen nach stderr und die finale Agentennachricht nach stdout. Dieses Design macht es kompatibel mit Standard-Unix-Pipelines.
JSON-Zeilenausgabe
Mit --json wird stdout zu einem JSONL-Ereignisstrom:
codex exec --json "fix the tests" | jq
Ereignistypen: thread.started, turn.started/completed/failed, item.started/completed, error
{"type":"thread.started","thread_id":"019c5c94-..."}
{"type":"turn.started"}
{"type":"item.started","item":{"id":"item_1","type":"command_execution","status":"in_progress"}}
{"type":"item.completed","item":{"id":"item_3","type":"agent_message","text":"..."}}
{"type":"turn.completed","usage":{"input_tokens":24763,"cached_input_tokens":24448,"output_tokens":122}}
Strukturierte Ausgabe
Erzwingen Sie das Antwortformat mit JSON Schema:
codex exec "Extract project metadata" \
--output-schema ./schema.json \
-o ./project-metadata.json
-o / --output-last-message schreibt die finale Nachricht in eine Datei.
Sitzung fortsetzen und überprüfen
codex exec resume --last "continue where you left off"
codex exec resume <SESSION_ID> "fix the remaining issues"
codex exec review --base main # Code review against a branch
Wichtige Flags
| Flag | Beschreibung |
|---|---|
--full-auto |
Workspace-write-Sandbox + on-request-Genehmigung |
--json |
JSONL-Ereignisstrom nach stdout |
-o, --output-last-message <file> |
Finale Nachricht in Datei speichern |
--output-schema <file> |
Antwort gegen JSON Schema validieren |
--ephemeral |
Sitzungsdateien nicht persistieren |
-C, --cd <dir> |
Arbeitsverzeichnis festlegen |
--add-dir <dir> |
Zusätzliche beschreibbare Verzeichnisse |
--skip-git-repo-check |
Ausführung außerhalb von Git-Repos erlauben |
--dangerously-bypass-approvals-and-sandbox |
Keine Sandbox, keine Genehmigungen (nur CI) |
CI-Authentifizierung
codex exec unterstützt CODEX_API_KEY für nicht-interaktive Authentifizierung in Automatisierungsumgebungen.
Codex Cloud & Hintergrundaufgaben [EXPERIMENTELL]
Status: Codex Cloud ist eine experimentelle Funktion. Schnittstellen, Preise und Verfügbarkeit können sich ändern. OpenAI verwaltet die Cloud-Umgebungen, und Sie kontrollieren die Infrastruktur nicht.
Codex Cloud führt Aufgaben asynchron in von OpenAI verwalteten Umgebungen aus.4 Siehe auch GitHub Action & CI/CD für die Integration von Codex in Ihre CI-Pipeline.
Funktionsweise
- Reichen Sie eine Aufgabe ein (über chatgpt.com/codex, Slack-Integration oder CLI)
- Codex klont Ihr Repository in eine isolierte Cloud-Sandbox
- Der Agent arbeitet unabhängig: liest Code, führt Tests aus, nimmt Änderungen vor
- Nach Abschluss erstellt Codex einen PR oder stellt einen Diff zur Überprüfung bereit
- Übernehmen Sie Ergebnisse lokal mit
codex apply <TASK_ID>
Internetzugang in der Cloud
Der Internetzugang des Agenten ist standardmäßig deaktiviert und wird pro Umgebung konfiguriert:
- Aus: Kein Internetzugang für den Agenten (Standard)
- An: Optionale Domain-Allowlist + HTTP-Methodenbeschränkungen
Allowed domains: pypi.org, npmjs.com, github.com
Allowed methods: GET, HEAD, OPTIONS
Setup-Skripte können weiterhin das Internet nutzen, um Abhängigkeiten zu installieren, auch wenn der Internetzugang des Agenten deaktiviert ist.
Slack-Integration
Erwähnen Sie @Codex in einem Slack-Kanal oder -Thread, um eine Cloud-Aufgabe zu starten.
Voraussetzungen: 1. Berechtigter ChatGPT-Plan (Plus, Pro, Business, Enterprise oder Edu) 2. Verbundenes GitHub-Konto 3. Mindestens eine konfigurierte Cloud-Umgebung 4. Slack-App für Ihren Workspace installiert
Codex antwortet mit einem Aufgaben-Link und postet die Ergebnisse nach Abschluss.
Cloud-CLI
codex cloud exec --env <ENV_ID> "Fix failing tests" # Start a cloud task
codex cloud status <TASK_ID> # Check task progress
codex cloud diff <TASK_ID> # View task diff
codex cloud list # List recent tasks
codex cloud list --json # JSON output
codex cloud apply <TASK_ID> # Apply from cloud subcommand
codex apply <TASK_ID> # Apply diff (top-level shortcut)
## Die Codex Desktop App
Die Codex Desktop App (nur macOS, Apple Silicon) bietet eine grafische Oberfläche, die für die Verwaltung mehrerer Projekte optimiert ist.[^17]
### Installation
```bash
codex app # Auto-downloads and installs on first run
Oder direkt herunterladen: Codex.dmg
Wichtige Funktionen
| Funktion | Beschreibung |
|---|---|
| Parallele Threads | Führen Sie mehrere Aufgaben projektübergreifend gleichzeitig aus |
| Thread-Modi | Starten Sie Threads im Modus Local, Worktree oder Cloud |
| Integrierte Git-Tools | Diffs überprüfen, Kommentare hinzufügen, Chunks stagen/zurücksetzen, committen/pushen, PRs erstellen |
| Integriertes Terminal | Terminal pro Thread (Cmd+J) |
| Spracheingabe | Prompts per Sprache eingeben (Ctrl+M) |
| Automations | Wiederkehrende Aufgaben planen |
| Benachrichtigungen | Abschluss-/Genehmigungsbenachrichtigungen bei minimierter App |
| Ruhezustand verhindern | Optionale Einstellung, um den Rechner während laufender Aufgaben wach zu halten |
| Skills + MCP | Gemeinsame Konfiguration für App, CLI und IDE-Erweiterung |
| MCP-Shortcuts | Schnellzugriff auf MCP-Tool-Shortcuts im Composer (App v26.226)65 |
| Review-@mentions | @mention von Mitarbeitern in Code-Review-Kommentaren (App v26.226)65 |
Thread-Modi
Jeder Thread läuft in einem von drei Modi, der beim Erstellen ausgewählt wird:
| Modus | Isolation | Dateizugriff | Ideal für |
|---|---|---|---|
| Local | Keine — arbeitet direkt in Ihrem Projektverzeichnis | Voller Lese-/Schreibzugriff | Schnelle Aufgaben, Erkundung, nicht-destruktive Arbeit |
| Worktree | Git-Worktree — isolierte Branch-Kopie Ihres Repos | Isolierte Kopie | Feature-Entwicklung, riskante Refactors, parallele Experimente |
| Cloud | Remote-Server — läuft auf der OpenAI-Infrastruktur | Kein lokaler Zugriff | Lang laufende Aufgaben, CI-ähnliche Workflows, asynchrone Delegation |
Worktree-Isolationsmechanik:
Wenn Sie einen Worktree-Thread starten, führt die Desktop-App folgende Schritte aus:
1. Erstellt einen neuen Git-Worktree (git worktree add) in einem temporären Verzeichnis
2. Checkt einen neuen Branch von Ihrem aktuellen HEAD aus
3. Führt den Agenten innerhalb des Worktrees aus — alle Dateiänderungen sind isoliert
4. Zeigt nach Abschluss einen Diff-Review an — Sie entscheiden, welche Änderungen zurückgemergt werden
Das bedeutet, dass mehrere Worktree-Threads gleichzeitig auf demselben Repo laufen können, ohne Konflikte zu verursachen. Jeder erhält seinen eigenen Branch und sein eigenes Arbeitsverzeichnis.
Automations
Automations laufen lokal in der App, daher muss die App geöffnet und das Projekt auf der Festplatte verfügbar sein:
- In Git-Repos verwenden Automations dedizierte Hintergrund-Worktrees (isoliert von Ihrem Arbeitsverzeichnis)
- In Nicht-Git-Projekten wird direkt im Projektverzeichnis ausgeführt
- Automations verwenden Ihre Standard-Sandbox-Einstellungen
Eine Automation einrichten: 1. Öffnen Sie ein Projekt in der Desktop-App 2. Klicken Sie auf den Automations-Tab in der Seitenleiste 3. Definieren Sie einen Trigger (Zeitplan, Webhook oder manuell) 4. Schreiben Sie den Prompt und wählen Sie den Thread-Modus 5. Automations werden planmäßig ausgeführt und Ergebnisse zur Überprüfung in die Warteschlange gestellt
Beispielhafte Anwendungsfälle: - Issue-Triage: Neue Issues automatisch kategorisieren und priorisieren - CI-Überwachung: Build-Fehler beobachten und Fixes vorschlagen - Alert-Reaktion: Auf Monitoring-Alerts mit diagnostischer Analyse reagieren - Dependency-Updates: Sicherheitspatches prüfen und anwenden
Ergebnisse erscheinen in einer Review-Warteschlange zur menschlichen Genehmigung.
Windows-Unterstützung
Windows-Unterstützung ist geplant. Prüfen Sie die Codex Desktop App-Seite oder die GitHub-Releases für Verfügbarkeitsupdates.18
GitHub Action & CI/CD
Die offizielle GitHub Action integriert Codex in Ihre CI/CD-Pipeline.19
Grundlegende Verwendung
# .github/workflows/codex.yml
name: Codex
on:
pull_request:
types: [opened]
jobs:
codex:
runs-on: ubuntu-latest
outputs:
final_message: ${{ steps.run_codex.outputs.final-message }}
steps:
- uses: actions/checkout@v5
- name: Run Codex
id: run_codex
uses: openai/codex-action@v1
with:
openai-api-key: ${{ secrets.OPENAI_API_KEY }}
prompt-file: .github/codex/prompts/review.md
sandbox: workspace-write
safety-strategy: drop-sudo
Konfigurationsoptionen
| Eingabe | Zweck |
|---|---|
openai-api-key |
API-Key für Proxy-/Auth-Setup |
responses-api-endpoint |
Endpoint überschreiben (z. B. Azure Responses URL) |
prompt / prompt-file |
Aufgabenanweisungen (eines erforderlich) |
working-directory |
Verzeichnis, das an codex exec --cd übergeben wird |
sandbox |
workspace-write / read-only / danger-full-access |
codex-args |
Zusätzliche CLI-Flags (JSON-Array oder Shell-String) |
output-schema / output-schema-file |
Strukturiertes Ausgabeschema für --output-schema |
model / effort |
Agenten-Konfiguration |
output-file |
Finale Nachricht auf Festplatte speichern |
codex-version |
CLI-Version festlegen |
codex-home |
Benutzerdefiniertes Codex-Home-Verzeichnis |
allow-users / allow-bots |
Trigger-Allowlist-Steuerung |
safety-strategy / codex-user |
Rechtereduktionsverhalten und Benutzerauswahl |
Ausgabe: final-message, der finale Codex-Antworttext für nachfolgende Schritte/Jobs.
Sicherheitsstrategien
| Strategie | Beschreibung |
|---|---|
drop-sudo (Standard) |
Linux/macOS; entfernt die sudo-Berechtigung nach dem Action-Schritt |
unprivileged-user |
Codex als vorab erstellter Benutzer mit niedrigen Rechten ausführen |
read-only |
Read-only-Sandbox (Runner-/Benutzerrechte-Risiko besteht weiterhin) |
unsafe |
Keine Rechtereduktion; auf Windows-Runnern erforderlich |
Zugriffssteuerung
with:
allow-users: "admin,maintainer" # Limit who can trigger
allow-bots: false # Block bot-triggered runs
Standard: Nur Mitarbeiter mit Schreibzugriff können Codex-Workflows auslösen.
Codex SDK
Das TypeScript SDK bettet die Agenten-Fähigkeiten von Codex in benutzerdefinierte Anwendungen ein.20
Installation
npm install @openai/codex-sdk
Grundlegende Verwendung
import { Codex } from "@openai/codex-sdk";
const codex = new Codex();
const thread = codex.startThread();
// Multi-turn conversation
const turn1 = await thread.run("Diagnose CI failures and propose a fix");
console.log(turn1.finalResponse);
const turn2 = await thread.run("Implement the fix and add tests");
console.log(turn2.items);
// Resume a previous session
const resumed = codex.resumeThread("<thread-id>");
await resumed.run("Continue from previous work");
Erweiterte SDK-Funktionen
runStreamed(...): Asynchroner Event-Stream für ZwischenupdatesoutputSchema: Erzwingt JSON-formatierte finale Ausgabe- Multimodale Eingabe: Text + lokale Bilder übergeben (
{ type: "local_image", path: "..." })
Thread- und Client-Konfiguration
// Custom working directory, skip git check
const thread = codex.startThread({
workingDirectory: "/path/to/project",
skipGitRepoCheck: true,
});
// Custom environment and config overrides
const codex = new Codex({
env: { CODEX_API_KEY: process.env.MY_KEY },
config: { model: "gpt-5.2-codex" },
});
Sitzungen werden unter ~/.codex/sessions gespeichert.
Laufzeitumgebung: Node.js 18+.
Leistungsoptimierung
Kontextverwaltung
Die Flaggschiff-Modelle verfügen über 272K-Token-Eingabefenster (128K Ausgabe, 400K Gesamtbudget), aber sie füllen sich schneller als man denkt. Verwalten Sie den Kontext proaktiv:
- Verwenden Sie
/compactregelmäßig: Fasst den Gesprächsverlauf zusammen, um Token freizugeben - Stellen Sie lokale Dokumentation bereit: Hochwertige
AGENTS.mdund lokale Dokumentation reduzieren den Erkundungsaufwand (der Kontext verbraucht) - Verwenden Sie
@, um bestimmte Dateien anzuhängen: Referenzieren Sie Dateien direkt, anstatt Codex suchen zu lassen - Halten Sie Prompts fokussiert: Eingegrenzte Prompts mit exakten Dateien verbrauchen weniger Kontext als offene Erkundung
Token-Effizienz
| Technik | Auswirkung |
|---|---|
model_reasoning_summary = "none" setzen |
Reduziert Ausgabe-Token um ~20 % |
model_verbosity = "low" verwenden |
Kürzere Erklärungen, mehr Aktion |
| Mini-Modelle für einfache Aufgaben verwenden | Deutlich günstiger pro Nachricht |
| Komplexe Aufgaben in fokussierte Sitzungen aufteilen | Bessere Token-Effizienz pro Sitzung |
| Profile zum Wechseln der Einstellungen je nach Aufgabe verwenden | Vermeidet hohe Reasoning-Kosten bei Routinearbeit |
Geschwindigkeitsoptimierung
gpt-5.3-codex-spark: Variante mit niedrigerer Latenz für interaktives Pairing--profile fast: Vorkonfiguriertes Mini-Modell mit niedrigem Reasoning- Parallele Tool-Ausführung: Codex führt unabhängige Lese-/Prüfvorgänge gleichzeitig aus — strukturieren Sie Prompts entsprechend
- Ergebnisorientierte Schleifen: Fragen Sie nach „implementieren, testen, fixen, stoppen wenn grün” anstatt Schritt-für-Schritt-Anweisungen
Wie debugge ich Probleme?
Häufige Probleme und Lösungen
| Problem | Ursache | Lösung |
|---|---|---|
| „Re-connecting”-Schleife | Mehrere Codex-Instanzen | Alle Prozesse beenden, 60 Sekunden warten, einzelne Instanz neu starten |
| 401-Authentifizierungsfehler | Veraltete Anmeldedaten | rm ~/.codex/auth.json && codex login |
| Netzwerk in Sandbox blockiert | Standardverhalten | -c 'sandbox_workspace_write.network_access=true' |
| WSL2-Verbindungsabbrüche | WSL-Zustandsbeschädigung | wsl --shutdown in PowerShell, 1 Minute warten, neu starten |
| Patch-Fehler | Zeilenende-Unterschiede | Auf LF normalisieren, exakten Dateitext angeben |
| Kontextkomprimierung schlägt fehl | Zu viel Kontext | Reasoning Effort reduzieren, in kleinere Aufgaben aufteilen |
| Modell wechselt unerwartet | config.toml-Überschreibung | /config ausführen, um effektive Einstellungen und Quellen zu prüfen |
| Plan-Modus erlaubt Änderungen | Bekannter Fehler | Issue #11115 |
| Vergisst AGENTS.md-Anweisungen | Kontextlimits | Anweisungen kurz halten; Skill-Dateien für detaillierte Abläufe verwenden |
| Hängt im Read-Only-Modus | Bekanntes Problem | Discussion #7380 |
Fehlermeldungen-Referenz
| Fehlermeldung | Bedeutung | Behebung |
|---|---|---|
Error: EACCES permission denied |
Sandbox hat eine Dateioperation blockiert | Sandbox-Modus prüfen; workspace-write verwenden, wenn Codex Dateien bearbeiten muss |
Error: rate limit exceeded |
API-Ratenlimit erreicht | Warten und erneut versuchen; model_reasoning_effort reduzieren oder auf ein leichteres Modell wechseln |
Error: context length exceeded |
Konversation hat 272K Eingabe-Token überschritten | /compact zum Zusammenfassen verwenden oder neue Sitzung mit /new starten |
Error: MCP server failed to start |
MCP-Serverprozess ist abgestürzt oder hat ein Timeout erreicht | codex mcp get <name> für Konfiguration prüfen; startup_timeout_sec erhöhen |
Error: authentication required |
Kein gültiger API-Schlüssel oder keine gültige Sitzung | codex login ausführen oder CODEX_API_KEY setzen |
Error: sandbox execution failed |
Befehl ist innerhalb der Sandbox fehlgeschlagen | Befehlssyntax prüfen; sicherstellen, dass erforderliche Tools in der Sandbox-Umgebung verfügbar sind |
WARN: skill not found |
Referenzierter Skill existiert nicht am erwarteten Pfad | /skills-Liste prüfen; Speicherort des Skill-Ordners überprüfen |
Error: wire format mismatch |
Falsche wire_api-Einstellung für den Anbieter |
wire_api = "responses" für OpenAI-Endpunkte verwenden (siehe Benutzerdefinierte Modellanbieter) |
Diagnose-Tools
codex --version # Check CLI version
codex login status # Verify authentication
codex mcp list # Check MCP server status
codex debug app-server --help # Debug app server issues
TUI-Diagnose innerhalb der Sitzung:
/status # Token/session overview
/config # Inspect effective config values and sources
/compact # Summarize history to reclaim context
Hinweis:
codex --verboseist kein gültiges Top-Level-Flag. Verwenden Sie stattdessen die oben genannten Debug-Unterbefehle und TUI-Diagnosetools.
Neuinstallation
npm uninstall -g @openai/codex && npm install -g @openai/codex@latest
Debug-Modus
codex debug app-server send-message-v2 # Test app-server client
Probleme melden
/feedback # Send logs to Codex maintainers (in TUI)
Oder erstellen Sie Issues unter github.com/openai/codex/issues.1
Unternehmensbereitstellung
Admin-Steuerung (requirements.toml)
Administratoren setzen Unternehmensrichtlinien über requirements.toml durch, eine vom Administrator erzwungene Konfigurationsdatei, die sicherheitsrelevante Einstellungen einschränkt, die Benutzer nicht überschreiben können:22
# /etc/codex/requirements.toml
# Restrict which approval policies users can select
allowed_approval_policies = ["untrusted", "on-request", "on-failure"]
# Limit available sandbox modes
allowed_sandbox_modes = ["read-only", "workspace-write"]
# Control web search capabilities
allowed_web_search_modes = ["cached"]
# Allowlist MCP servers by identity (both name and identity must match)
[mcp_servers.approved-server]
identity = { command = "npx approved-mcp-server" }
# Admin-enforced command restrictions
[[rules.prefix_rules]]
pattern = [{ token = "rm" }, { any_of = ["-rf", "-fr"] }]
decision = "forbidden"
justification = "Recursive force-delete is prohibited by IT policy"
[[rules.prefix_rules]]
pattern = [{ token = "sudo" }]
decision = "prompt"
justification = "Elevated commands require explicit approval"
Im Gegensatz zur benutzerseitigen
config.toml, die Präferenzen festlegt, istrequirements.tomleine harte Einschränkungsebene, die begrenzt, welche Werte Benutzer auswählen können — Benutzer können sie nicht überschreiben. Admin-Anforderungsregeln können nur auffordern oder verbieten (niemals stillschweigend erlauben).
macOS-MDM-Konfiguration
Verteilen Sie die Konfiguration über MDM unter Verwendung der Präferenzdomäne com.openai.codex.22 Codex berücksichtigt standardmäßige macOS-MDM-Payloads (Jamf Pro, Fleet, Kandji usw.). Kodieren Sie TOML als Base64 ohne Zeilenumbrüche:
| Schlüssel | Zweck |
|---|---|
config_toml_base64 |
Base64-kodierte verwaltete Standardwerte (Startwerte, die Benutzer ändern können) |
requirements_toml_base64 |
Base64-kodierte vom Administrator erzwungene Anforderungen (Benutzer können sie nicht überschreiben) |
Rangfolge (höchste bis niedrigste):
- Verwaltete macOS-Präferenzen (MDM)
- Cloud-abgerufene Anforderungen (ChatGPT Business / Enterprise)
/etc/codex/requirements.toml(lokales Dateisystem)
Cloud-Anforderungen füllen nur nicht gesetzte Anforderungsfelder, sodass höherrangige verwaltete Ebenen immer Vorrang haben. Cloud-Anforderungen werden nach bestem Bemühen abgerufen; schlägt der Abruf fehl oder kommt es zu einem Timeout, fährt Codex ohne die Cloud-Ebene fort.
OpenTelemetry-Integration
Codex unterstützt die Weitergabe von OpenTelemetry-Trace-Kontexten aus standardmäßigen OTel-Umgebungsvariablen bis hin zu OpenAI-API-Aufrufen. Setzen Sie die Standard-Umgebungsvariablen, bevor Sie Codex starten:
# Point Codex at your OTel collector
export OTEL_EXPORTER_OTLP_ENDPOINT="https://otel-collector.internal:4318"
export OTEL_SERVICE_NAME="codex-cli"
export OTEL_RESOURCE_ATTRIBUTES="team=platform,env=production"
# Launch Codex — trace context propagates to all OpenAI API calls
codex
- Standardmäßige
OTEL_*-Umgebungsvariablen werden berücksichtigt (Endpunkt, Dienstname, Ressourcenattribute) - Der Trace-Kontext wird durch Codex an API-Aufrufe weitergegeben und ermöglicht so durchgängige Observability
- Verwenden Sie Ressourcenattribute, um Traces nach Team, Umgebung oder Projekt zu taggen
- Beachten Sie Datenschutzanforderungen beim Aktivieren von Prompt-/Tool-Logging — Traces können Code-Ausschnitte enthalten
Unternehmenszugang
- ChatGPT Business / Enterprise / Edu: Vom Organisationsadministrator gesteuerter Zugang, mit automatisch angewendeten Cloud-Anforderungen. Unterstützt SSO über SAML/OIDC durch Ihren Identitätsanbieter (Okta, Entra ID usw.)
- API: Standard-API-Authentifizierung, Abrechnung und Organisations-/Projektsteuerung. OpenAI veröffentlicht SOC 2 Type II- und SOC 3-Berichte; HIPAA BAA ist für die Enterprise-Stufe verfügbar
- Codex SDK: Einbettung in interne Tools und Workflows
- Richtliniendurchsetzung im großen Maßstab: Verwenden Sie MDM-verteiltes
requirements_toml_base64oder dateisystembasiertes/etc/codex/requirements.toml
Datenverarbeitung und Compliance: - API-Ein-/Ausgaben werden gemäß den Business-/Enterprise-/API-Bedingungen von OpenAI nicht für das Training verwendet - Für Datenresidenz wird OpenAI-API-Verkehr standardmäßig über US-basierte Infrastruktur geleitet; für EU-Datenresidenzanforderungen wenden Sie sich an das Enterprise-Vertriebsteam von OpenAI - Sitzungsprotokolle werden lokal gespeichert; nur API-Aufrufe verlassen den Rechner - ChatGPT Enterprise unterstützt Compliance-Frameworks einschließlich SOC 2, DSGVO und CCPA
Rollout-Strategie
Empfohlener phasenweiser Rollout für Organisationen:
- Pilotphase (Woche 1–2): Bereitstellung für 3–5 erfahrene Entwickler mit
requirements.toml, das den Sandbox-Modusuntrustedund die Websuchecachederzwingt. Feedback zu AGENTS.md-Mustern und MCP-Server-Anforderungen sammeln. - Teamerweiterung (Woche 3–4): Rollout an das gesamte Team. Team-standardisierte
config.tomlüber MDM oder Repository verteilen. Sandbox-Modusworkspace-writefür vertrauenswürdige Repositories aktivieren. - CI-Integration (Woche 5–6):
codex-actionzu CI/CD-Pipelines für automatisierte PR-Reviews und Testgenerierung hinzufügen.--ephemeralverwenden, um Kosten planbar zu halten. - Organisationsweit (Monat 2+): Bereitstellung über MDM mit
requirements.toml, das genehmigte MCP-Server, Sandbox-Richtlinien und Modell-Allowlists erzwingt.
Audit-Muster
Codex-Nutzung verfolgen und Compliance sicherstellen:
- OpenTelemetry-Traces: API-Aufrufvolumen, Token-Nutzung und Latenz pro Team überwachen
- Sitzungspersistenz:
~/.codex/sessions/für Compliance-Überprüfungen auditieren (mit--ephemeralin sensiblen Kontexten deaktivieren) - MCP-Identitätsdurchsetzung:
requirements.tomlprotokolliert blockierte Serverversuche — auf nicht autorisierte Tool-Nutzung überprüfen - Git-Audit-Trail: Alle Dateiänderungen durch Codex durchlaufen Standard-Git — Überprüfung über Branch-Verlauf und PR-Diffs
Best Practices & Anti-Patterns
Prompting-Muster
- Einschränkungsgetriebene Prompts: Beginnen Sie mit Grenzen. „Ändern Sie NICHT die API-Verträge. Refaktorieren Sie nur die interne Implementierung.”
- Strukturierte Reproduktionsschritte: Nummerierte Schritte führen zu besseren Bugfixes als vage Beschreibungen
- Verifizierungsanfragen: Schließen Sie mit „Führen Sie Lint und die kleinste relevante Test-Suite aus. Berichten Sie Befehle und Ergebnisse.”
- Dateiverweise: Verwenden Sie
@filename, um bestimmte Dateien dem Kontext hinzuzufügen - Ergebnisorientierte Schleifen: „Implementieren, Tests ausführen, Fehler beheben, erst stoppen wenn alle Tests bestehen.” Codex iteriert bis zur Fertigstellung
Testing-Philosophie
Die Community konvergiert auf testgetriebene KI-Zusammenarbeit:23
- Definieren Sie Tests vorab als Abschlusssignale
- Lassen Sie Codex iterieren bis die Tests bestehen (rot → grün → refaktorieren)
- Übernehmen Sie Tiger Style Programmiermuster
- Stellen Sie exakten Dateitext bereit, wenn Sie Patches anfordern. Codex verwendet striktes Matching, kein unscharfes AST-basiertes Patching
Best Practices für Kontextmanagement
- Stellen Sie hochwertige lokale Dokumentation bereit, anstatt sich auf Websuche zu verlassen
- Pflegen Sie strukturiertes Markdown mit Inhaltsverzeichnissen und Fortschrittsdateien („progressive Offenlegung”)
- Normalisieren Sie Zeilenenden (LF vs CRLF) in versionierten Dateien, um Patch-Fehler zu vermeiden
- Halten Sie
AGENTS.mdprägnant, da lange Anweisungen aus dem Kontext verdrängt werden
Git-Workflow
- Erstellen Sie immer einen neuen Branch, bevor Sie Codex auf unbekannten Repositories ausführen
- Verwenden Sie Patch-basierte Workflows (
git diff/git apply) anstelle direkter Bearbeitungen - Überprüfen Sie Codex-Vorschläge wie Code-Review-PRs
- Verwenden Sie
/diff, um Änderungen vor dem Commit zu verifizieren
Community-Skills und Prompts
Das Repository feiskyer/codex-settings bietet von der Community gepflegte Konfigurationen:24
Wiederverwendbare Prompts (in ~/.codex/prompts/):
- deep-reflector: Erkenntnisse aus Entwicklungssitzungen extrahieren
- github-issue-fixer [issue-number]: Systematische Fehleranalyse und PR-Erstellung
- github-pr-reviewer [pr-number]: Code-Review-Workflows
- ui-engineer [requirements]: Produktionsreife Frontend-Entwicklung
Community-Skills:
- claude-skill: Aufgaben an Claude Code mit Berechtigungsmodi übergeben
- autonomous-skill: Multi-Session-Aufgabenautomatisierung mit Fortschrittsverfolgung
- deep-research: Parallele Teilaufgaben-Orchestrierung
- kiro-skill: Anforderungen → Design → Aufgaben → Ausführungspipeline
Anti-Patterns
Häufige Fehler, die Token verschwenden, schlechte Ergebnisse liefern oder frustrierende Workflows erzeugen.
Kosten-Anti-Patterns
| Anti-Pattern | Warum es scheitert | Lösung |
|---|---|---|
xhigh Reasoning für alles verwenden |
3-5x Token-Kosten mit abnehmenden Erträgen bei einfachen Aufgaben | Verwenden Sie standardmäßig medium; reservieren Sie xhigh für Multi-Datei-Architekturentscheidungen |
/compact nie verwenden |
Kontext füllt sich auf 272K, Antwortqualität verschlechtert sich | Komprimieren Sie nach jedem großen Meilenstein oder wenn /status >60% Auslastung zeigt |
| Flagship-Modell in CI ausführen | Teuer für Routineprüfungen | Erstellen Sie ein ci-Profil mit gpt-5.1-codex-mini und low Reasoning |
Kontext-Anti-Patterns
| Anti-Pattern | Warum es scheitert | Lösung |
|---|---|---|
| Offene „alles erkunden”-Prompts | Codex liest Dutzende Dateien und verbraucht Kontext für irrelevanten Code | Grenzen Sie mit spezifischen Dateien ein: „Überprüfen Sie src/auth/login.py und tests/test_auth.py“ |
Kein AGENTS.md im Projekt |
Codex verschwendet Durchgänge, um die Projektstruktur zu entdecken | Fügen Sie eine 20-zeilige AGENTS.md mit wichtigen Pfaden, Konventionen und Testbefehlen hinzu |
| Ganze Verzeichnisse anhängen | Überflutet den Kontext mit irrelevanten Dateien | Verwenden Sie @filename, um nur die Dateien anzuhängen, die Codex benötigt |
Workflow-Anti-Patterns
| Anti-Pattern | Warum es scheitert | Lösung |
|---|---|---|
Direkt auf main arbeiten |
Kein Sicherheitsnetz; riskante Bearbeitungen sind schwer rückgängig zu machen | Erstellen Sie immer einen Feature-Branch bevor Sie Codex starten |
/diff vor dem Commit überspringen |
Codex hat möglicherweise unbeabsichtigte Änderungen vorgenommen | Überprüfen Sie /diff nach jeder Aufgabe, vor jedem Commit |
| Testausgaben ignorieren | Codex iteriert über Fehler hinweg, wenn Sie diese nicht markieren | Verwenden Sie „Tests ausführen und nur stoppen wenn alle bestehen” in Ihrem Prompt |
| Konversationen nie forken | Eine falsche Abzweigung verunreinigt den gesamten Kontext | /fork vor riskanten Erkundungen; verwerfen Sie schlechte Zweige |
Prompt-Anti-Patterns
| Anti-Pattern | Warum es scheitert | Lösung |
|---|---|---|
| „Fix the bug” (ohne Kontext) | Codex rät welcher Bug, liest alles | „Beheben Sie den TypeError in src/api/handler.py:42 — user.name ist None bei nicht authentifizierten Benutzern” |
| Multi-Task-Prompts in einer Nachricht | Codex vermischt Aufgaben, übersieht einige | Eine Aufgabe pro Nachricht; verwenden Sie den Steer-Modus (Tab) um Folgeanfragen einzureihen |
| Kontext in jeder Nachricht wiederholen | Verschwendet Token durch doppelte Informationen | Verwenden Sie /m_update für persistente Fakten; verweisen Sie auf früheren Kontext |
Workflow-Rezepte
Durchgängige Muster für gängige Entwicklungsszenarien.
Rezept 1: Neues Projekt einrichten
mkdir my-app && cd my-app && git init
codex
> Create a FastAPI project with: main.py, requirements.txt, Dockerfile,
basic health endpoint, and a README. Use async throughout.
> /init
Überprüfen Sie die generierte AGENTS.md, passen Sie sie an Ihre Konventionen an, dann:
> Run the health endpoint test and confirm it passes
Rezept 2: Täglicher Entwicklungsablauf
cd ~/project && git checkout -b feature/user-auth
codex
> @src/models/user.py @src/api/auth.py
Add password reset functionality. Requirements:
1. POST /api/auth/reset-request (email → sends token)
2. POST /api/auth/reset-confirm (token + new password)
3. Tests for both endpoints
Run tests when done.
Überprüfen Sie mit /diff, dann committen.
Rezept 3: Komplexes Refactoring mit Plan-Modus
codex
> /plan Migrate the database layer from raw SQL to SQLAlchemy ORM.
Constraints: don't change any API contracts, keep all existing tests passing.
Überprüfen Sie den Plan. Genehmigen oder steuern Sie nach:
[Tab] Also add a migration script using Alembic
Nachdem Codex ausgeführt hat, verifizieren Sie:
> Run the full test suite and report results
> /diff
Rezept 4: PR-Review mit codex exec
codex exec --model gpt-5.1-codex-mini \
"Review the changes in this branch against main. \
Flag security issues, missed edge cases, and style violations. \
Format as a markdown checklist." \
-o review.md
Rezept 5: Debugging mit Cloud Tasks [EXPERIMENTELL]
codex cloud exec --env my-env "Diagnose why the /api/orders endpoint returns 500 \
for orders with > 100 line items. Check the serializer, database query, \
and pagination logic. Propose a fix with tests."
Fortschritt später prüfen:
codex cloud status <TASK_ID>
codex cloud diff <TASK_ID>
Den Fix lokal anwenden wenn fertig:
codex apply <TASK_ID>
Migrationsleitfaden
Von Claude Code
| Claude Code-Konzept | Codex-Entsprechung |
|---|---|
CLAUDE.md |
AGENTS.md (offener Standard) |
.claude/settings.json |
.codex/config.toml (TOML-Format) |
--print-Flag |
codex exec-Unterbefehl |
--dangerously-skip-permissions |
--dangerously-bypass-approvals-and-sandbox |
| Hooks (12+ Ereignisse) | Hooks (AfterAgent, AfterToolUse — im Frühstadium; v0.99.0+) |
| Subagents (Task-Tool) | Sub-Agents (intern, max. 6; kein benutzerseitiges Task-Tool-Äquivalent) |
/compact |
/compact (identisch) |
/cost |
/status (zeigt Token-Verbrauch) |
| Modell: Opus/Sonnet/Haiku | Modell: gpt-5.3-codex / gpt-5.3-codex-spark / gpt-5.2-codex / gpt-5.1-codex-mini (Codex verwendet ausschließlich OpenAIs GPT-5.x-Modellfamilie) |
claude --resume |
codex resume |
| Berechtigungsregeln | Sandbox-Modi + Genehmigungsrichtlinien |
| MCP-Konfiguration in settings.json | MCP-Konfiguration in config.toml |
Wichtige Unterschiede, die Sie verstehen sollten:
- Sandbox arbeitet auf Betriebssystemebene: Codex verwendet Seatbelt/Landlock, keine Container. Einschränkungen wirken auf Kernel-Ebene, unterhalb der Anwendungsschicht.
- Hooks sind im Frühstadium: Codex hat Hooks in v0.99.0 (AfterAgent) und v0.100.0 (AfterToolUse) eingeführt, aber das System befindet sich im Vergleich zu den 12+ Lifecycle-Ereignissen von Claude Code noch in einer frühen Phase. Für Automatisierungsmuster, die noch nicht abgedeckt sind, verwenden Sie AGENTS.md-Anweisungen oder Skills.
- Sub-Agents sind intern, aber jetzt konfigurierbar: Codex verfügt über eine Sub-Agent-Infrastruktur (max. 6 gleichzeitig, reduziert von 12 in v0.91.0). Ab v0.104.0 sind Multi-Agent-Rollen über die Konfiguration anpassbar, was benannte Agentenrollen mit unterschiedlichen Profilen ermöglicht.49 v0.105.0 fügte
spawn_agents_on_csvfür Fanout über Zeilen mit Fortschrittsverfolgung und ETA hinzu.63 Codex verfügt noch nicht über das explizite Task-Tool-UX von Claude Code für benutzergesteuerte Delegation — verwenden Sie Cloud-Tasks oder SDK-Orchestrierung für Delegationsmuster. - AGENTS.md ist toolübergreifend: Ihre AGENTS.md funktioniert in Cursor, Copilot, Amp, Jules, Gemini CLI und über 60.000 Open-Source-Projekten. CLAUDE.md ist Claude-exklusiv.
- Profile ersetzen manuelles Umschalten: Anstatt Flags pro Ausführung zu ändern, definieren Sie Profile in config.toml.
Von GitHub Copilot
| Copilot-Konzept | Codex-Entsprechung |
|---|---|
| Copilot CLI (agentisches Terminal) | Interaktives CLI oder Desktop-App |
| Spezialisierte Agents (Explore, Plan) | Skills + Planmodus + Steuerungsmodus |
copilot-instructions.md / AGENTS.md |
AGENTS.md (gleicher Standard) |
| MCP-Unterstützung | MCP-Unterstützung (STDIO + HTTP) |
| ACP (Agent Client Protocol) | Hooks (AfterAgent, AfterToolUse) |
| Copilot SDK | Codex SDK (TypeScript) |
| Coding-Agent-Workflows | Codex-Agent mit Sandbox-/Genehmigungssteuerung + Cloud-Tasks |
Was Sie gewinnen:
- Sandboxing auf Betriebssystemebene (Seatbelt/Landlock — Kernel-basiert vs. containerbasiert)
- Cloud-Task-Delegation mit codex apply
- Konfigurationsprofile für Workflow-Wechsel
- Desktop-App mit Worktree-Isolation
Von Cursor
| Cursor-Konzept | Codex-Entsprechung |
|---|---|
Projektregeln (.cursor/rules) / AGENTS.md |
AGENTS.md + Profile/Konfiguration |
| Agent-Chat-/Composer-Workflows | Interaktives CLI oder Desktop-App |
@-Dateireferenzen |
@-Dateireferenzen (identisch) |
| Anwenden/Bearbeiten + Überprüfung | Integriertes Patching und Diff-Überprüfung |
Kurzreferenzkarte
╔═══════════════════════════════════════════════════════════════╗
║ CODEX CLI QUICK REFERENCE ║
╠═══════════════════════════════════════════════════════════════╣
║ ║
║ LAUNCH ║
║ codex Interactive TUI ║
║ codex "prompt" TUI with initial prompt ║
║ codex exec "prompt" Non-interactive mode ║
║ codex app Desktop app ║
║ codex resume Resume previous session ║
║ codex fork Fork a session ║
║ ║
║ FLAGS ║
║ -m, --model <model> Select model ║
║ -p, --profile <name> Load config profile ║
║ -s, --sandbox <mode> Sandbox mode ║
║ -C, --cd <dir> Working directory ║
║ -i, --image <file> Attach image(s) ║
║ -c, --config <key=value> Override config ║
║ --full-auto workspace-write + on-request ║
║ --oss Use local models (Ollama) ║
║ --search Enable live web search ║
║ ║
║ SLASH COMMANDS (in TUI) ║
║ /compact Free tokens /diff Git diff ║
║ /review Code review /plan Plan mode ║
║ /model Switch model /status Session info ║
║ /fork Fork thread /init AGENTS.md scaffold ║
║ /mcp MCP tools /skills Invoke skills ║
║ /ps Background /personality Style ║
║ /permissions Approval mode /statusline Footer config ║
║ /copy Copy last response to clipboard ║
║ /clear Clear screen /theme Syntax highlighting ║
║ /experimental Toggle experimental features (js_repl) ║
║ ║
║ TUI SHORTCUTS ║
║ @ Fuzzy file search ║
║ !command Run shell command ║
║ Ctrl+G External editor ║
║ Ctrl+L Clear screen ║
║ Enter Inject instructions (while running) ║
║ Esc Esc Edit previous messages ║
║ ║
║ EXEC MODE (CI/CD) ║
║ codex exec --full-auto "task" Sandboxed auto ║
║ codex exec --json -o out.txt "task" JSON + file output ║
║ codex exec --output-schema s.json Structured output ║
║ codex exec resume --last "continue" Resume session ║
║ ║
║ MCP MANAGEMENT [EXPERIMENTAL] ║
║ codex mcp add <name> -- <cmd> Add STDIO server ║
║ codex mcp add <name> --url <u> Add HTTP server ║
║ codex mcp list List servers ║
║ codex mcp login <name> OAuth flow ║
║ codex mcp remove <name> Delete server ║
║ ║
║ CLOUD [EXPERIMENTAL] ║
║ codex cloud exec --env <ID> Start cloud task ║
║ codex cloud status <ID> Check task progress ║
║ codex cloud diff <ID> View task diff ║
║ codex cloud list List tasks ║
║ codex apply <TASK_ID> Apply cloud diff locally ║
║ ║
║ CONFIG FILES ║
║ ~/.codex/config.toml User config ║
║ .codex/config.toml Project config ║
║ ~/.codex/AGENTS.md Global instructions ║
║ AGENTS.md Project instructions ║
║ requirements.toml Enterprise policy constraints ║
║ ║
║ SANDBOX MODES ║
║ read-only Read files only, no mutations ║
║ workspace-write Read/write in workspace + /tmp ║
║ danger-full-access Full machine access ║
║ ║
║ APPROVAL POLICIES ║
║ untrusted Prompt for all mutations ║
║ on-failure Auto-run until failure ║
║ on-request Prompt for boundary violations ║
║ never No prompts ║
║ ║
║ MODELS (Feb 2026, v0.106.0) ║
║ gpt-5.3-codex Default flagship (272K in / 400K) ║
║ gpt-5.3-codex-spark Interactive, lower latency (128K) ║
║ gpt-5.2-codex Long-horizon refactors (272K / 400K) ║
║ gpt-5.1-codex-mini Quick tasks, cost-efficient (272K/400K)║
║ ║
╚═══════════════════════════════════════════════════════════════╝
Änderungsprotokoll
| Datum | Version | Änderungen | Quelle |
|---|---|---|---|
| 02.03.2026 | Guide v2.9 | Aktualisiert auf CLI v0.107.0: Thread-Forking in Sub-Agents, Echtzeit-Sprachgeräteauswahl, konfigurierbare Erinnerungen mit codex debug clear-memories, multimodale benutzerdefinierte Toolausgabe. App v26.226 hinzugefügt: MCP-Tastenkürzel im Composer, @Mentions in Review-Kommentaren. |
64 65 |
| 02.03.2026 | CLI 0.107.0 | Thread-Forking in Sub-Agents, Echtzeit-Sprachsitzungen mit Mikrofon-/Lautsprechergeräteauswahl, multimodale Ausgabe benutzerdefinierter Tools, konfigurierbare Erinnerungen + codex debug clear-memories, Fehlerbehebungen |
64 |
| 28.02.2026 | Guide v2.8 | Aktualisiert auf CLI v0.106.0: direktes Installationsskript, zsh-fork-Sandbox-Bypass-Fix, ~1M Zeichen Eingabelimit, Linux /dev-Dateisystem, flexible Genehmigungssteuerungen, JS REPL zu /experimental befördert (Node 22.22.0+), diff-basiertes Vergessen von Erinnerungen, TUI-Syntaxhervorhebung + /theme, /copy, /clear, Ctrl-L, Sprachtranskription, spawn_agents_on_csv, request_user_input im Default-Modus. Changelog-Einträge für v0.105.0 und v0.106.0 hinzugefügt. | 62 63 |
| 26.02.2026 | CLI 0.106.0 | Direktes Installationsskript, js_repl zu /experimental befördert mit Node 22.22.0 als Mindestversion, request_user_input im Default-Modus, 5.3-codex sichtbar in der CLI-Modellliste für API-Benutzer, diff-basiertes Vergessen von Erinnerungen mit nutzungsabhängiger Auswahl, zsh-fork-Sandbox-Bypass-Fix, ~1M Zeichen Eingabelimit, verbesserte TUI-Dateilink-Darstellung, Ctrl-C-Behandlungsfix für Sub-Agents | 62 |
| 25.02.2026 | CLI 0.105.0 | TUI-Syntaxhervorhebung für Codeblöcke und Diffs mit /theme-Auswahl, Sprachtranskription (Leertasten-Diktat, experimentell), spawn_agents_on_csv für Multi-Agent-Fanout mit Fortschritt/ETA, /copy /clear Ctrl-L Befehle, flexible Genehmigungssteuerungen (zusätzliche Sandbox-Berechtigungen, granulare Ablehnung), klickbare umbrochene Links, Linux /dev-Dateisystem für Sandbox-Befehle, Verbesserungen der js_repl-Fehlerberichterstattung | 63 |
| 24.02.2026 | Guide v2.7 | Abschnitt Zugang/Preise erweitert: Free/Go-Aktionstarif hinzugefügt, 2x Ratenlimits für kostenpflichtige Pläne, planspezifische Nutzungslimits (5-Stunden-Fenster), Kostentabelle für Credits. Konfigurationsschlüssel allow_login_shell hinzugefügt. |
53 |
| 22.02.2026 | Guide v2.6 | Fehlende Konfigurationsschlüssel hinzugefügt: features.multi_agent, features.apply_patch_freeform, features.search_tool, agents.* (Multi-Agent-Rollen), model_context_window, model_auto_compact_token_limit, mcp_oauth_callback_port, mcp_oauth_credentials_store, notify. Changelog-Eintrag für App v26.217 hinzugefügt. |
52 |
| 19.02.2026 | Guide v2.5 | Versionsreferenzen auf CLI 0.104.0 aktualisiert, Changelog-Einträge für v0.103.0 und v0.104.0 hinzugefügt, WS_PROXY/WSS_PROXY-Proxy-Unterstützung hinzugefügt, separate Genehmigungs-IDs, Commit-Co-Autor-Zuordnung, entferntes Feature-Flag remote_models durch command_attribution ersetzt. |
— |
| 18.02.2026 | CLI 0.104.0 | WS_PROXY/WSS_PROXY WebSocket-Proxy-Unterstützung, separate Genehmigungs-IDs für mehrstufige Befehle, Thread-Archivieren/Dearchivieren-Benachrichtigungen | 51 |
| 17.02.2026 | App v26.217 | Drag-and-Drop zum Neuordnen von Nachrichten in der Warteschlange, Modell-Downgrade-Warnung, verbesserte unscharfe Dateisuche mit Anhangswiederherstellung nach Neustart | 52 |
| 17.02.2026 | CLI 0.103.0 | Commit-Co-Autor-Zuordnung über prepare-commit-msg-Hook (konfigurierbar über command_attribution), erweiterte App-Listing-Metadaten/Branding, Feature-Flag remote_models entfernt |
50 |
| 17.02.2026 | Guide v2.4 | Alle Versionsreferenzen für CLI 0.102.0 aktualisiert, Changelog-Eintrag und Fußnote für v0.102.0 hinzugefügt, Sub-Agents-Hinweis mit konfigurierbaren Multi-Agent-Rollen aktualisiert. | — |
| 17.02.2026 | CLI 0.102.0 | Vereinheitlichter Berechtigungsfluss, strukturierte Netzwerkgenehmigungen, anpassbare Multi-Agent-Rollen, Modell-Umleitungsbenachrichtigungen, js_repl-Stabilitätsfixes | 49 |
| 16.02.2026 | Guide v2.3 | Migrationstabelle korrigiert: Hooks existieren jetzt (v0.99.0+), Sub-Agents berücksichtigt (max. 6), Modellliste vervollständigt. Eigenen Hooks-Abschnitt hinzugefügt (AfterAgent, AfterToolUse, Migrationsmuster). Phantom-Befehle in Rezept 5 behoben (cloud start→cloud exec, cloud pull→apply). codex auth→codex login korrigiert. Windows-Sandbox von Experimentell hochgestuft. Linux Bubblewrap jetzt mitgeliefert/integriert. Reasoning-Effort-Level minimal hinzugefügt. Abschnitt Erinnerungen erweitert (v0.101.0-Verfeinerungen, Erinnerungen vs. AGENTS.md). AGENTS.md-Anwenderliste aktualisiert (über 60.000 Projekte, Linux Foundation Governance). Copilot-Migrationstabelle aktualisiert. [EXPERIMENTAL]-Schreibweise vereinheitlicht. ReadOnlyAccess-Policy-Dokumentation, JS REPL Runtime-Abschnitt, Beispiel für Produktions-Deploy-Skill, erweiterter Kostenabschnitt (versteckter Token-Overhead, Team-Kostenmanagement) hinzugefügt. 20 nicht markierte Codeblöcke getaggt. Alle 30 Inhaltsverzeichnis-Anker verifiziert. Nachbewertungs-Fixes: /permissions-Terminologie korrigiert (approval mode→approval policy), doppelte „Project Trust”-Überschrift umbenannt, chat/completions-Deprecation-Formulierung abgeschwächt, OpenTelemetry-Abschnitt mit Konfigurationsbeispiel erweitert, „schwerer zu entkommen”-Formulierung in der Migration präzisiert. |
Deliberation-Audit |
| 16.02.2026 | Guide v2.2 | 19 historische CLI-Meilenstein-Releases (v0.2.0–v0.91.0) zum Changelog hinzugefügt. Sammelzitat 25 durch 20 einzelne Release-Fußnoten (37–61) ersetzt. Zitat 61 für Apache-2.0-Lizenz hinzugefügt. Zitat 5 zur codex-linux-sandbox-Referenz hinzugefügt. Zitat 22 zum MDM-Preference-Domain hinzugefügt. 6 Seatbelt-Hinweis bezüglich Bot-Blocking aktualisiert. Hinweis zu nicht verifizierbaren OpenAI-Blog-URLs hinzugefügt. Fußnoten insgesamt: 56 (vorher 36). | Deliberation-Audit |
| 15.02.2026 | Guide v2.1 | Enterprise-Abschnitt korrigiert (managed-admin-config.toml → requirements.toml mit verifizierten TOML-Schlüsseln), 272K Kontext als Eingabefenster mit Zitat qualifiziert, 6 Seatbelt-Zitat-URL hinzugefügt, Key-Takeaways-Block hinzugefügt, Stilverstöße behoben, Meta-Beschreibung gekürzt, AGENTS.md-Anwenderliste erweitert. | Blog-Evaluator-Audit |
| 14.02.2026 | Guide v2 | Umfassende Überarbeitung: Codex-verifizierte Korrekturen bei Modellen (272K Kontext), Konfigurationsschlüsseln, Feature-Flags, Preisen, Enterprise-Konfiguration, CI/CD-Action, SDK API, MCP-Optionen, codex exec-Flags, Desktop-App-Funktionen, Migrationsvergleichen. Nicht verifizierbare Behauptungen entfernt. | Selbstüberprüfung |
| 12.02.2026 | CLI 0.101.0 | Verbesserungen der Modellauflösung, Verfeinerungen der Erinnerungen, Stabilität | 37 |
| 12.02.2026 | CLI 0.100.0 | Experimentelle JS REPL, mehrere Ratenlimits, WebSocket-Transport, Erinnerungsbefehle, erweiterte Sandbox | 38 |
| 12.02.2026 | App v260212 | Konversations-Forking, schwebendes Pop-out-Fenster, Windows-Alpha | 18 |
| 12.02.2026 | – | Start von GPT-5.3-Codex-Spark (interaktive Variante mit niedrigerer Latenz) | 26 |
| 11.02.2026 | CLI 0.99.0 | Gleichzeitige Shell-Befehle, /statusline, sortierbare Wiederaufnahme-Auswahl, GIF/WebP-Unterstützung, Shell-Snapshotting |
39 |
| 06.02.2026 | CLI 0.98.0 | GPT-5.3-Codex-Unterstützung, Steer-Modus stabil und Standard, Fixes beim Modellwechsel | 40 |
| 06.02.2026 | CLI 0.97.0 | „Erlauben und merken” bei MCP-Genehmigungen, Live-Skill-Erkennung, /config-Diagnose, Erinnerungs-Infrastruktur |
41 |
| 06.02.2026 | CLI 0.96.0 | Async Thread/Compact v2, WebSocket-Ratenlimits, unified_exec für Nicht-Windows, Konfigurations-Herkunft | 42 |
| 06.02.2026 | CLI 0.95.0 | Befehl codex app, persönliche Skills, parallele Shell-Tools, Git-Härtung |
43 |
| 05.02.2026 | – | Start von GPT-5.3-Codex — vereinheitlichtes Modell, 25 % schneller, End-to-End-Computersteuerung | 27 |
| 02.02.2026 | – | Start der Codex Desktop App (macOS) — Multitasking, Worktrees, Automatisierungen | 17 |
| 30.01.2026 | CLI 0.94.0 | Plan-Modus als Standard, Persönlichkeit stabil, Skills aus .agents/skills, Laufzeitmetriken |
44 |
| 29.01.2026 | CLI 0.93.0 | SOCKS5-Proxy, Plan-Modus-Streaming, /apps, Smart-Approvals als Standard, SQLite-Logs |
45 |
| 29.01.2026 | CLI 0.92.0 | API v2 Threads, Thread-Filterung, MCP OAuth-Scopes, Multi-Agent-Zusammenarbeit | 46 |
| 25.01.2026 | CLI 0.91.0 | Maximale Sub-Agents von 12 auf 6 reduziert für engere Ressourcenlimits | 47 |
| 21.01.2026 | CLI 0.88.0 | Device-Code-Auth-Fallback, Kollaborationsmodi, /fork, Remote-Modelle, model_personality-Konfiguration |
48 |
| 06.01.2026 | CLI 0.78.0 | Ctrl+G externer Editor, projektbezogene Konfigurationsschichtung, macOS MDM-Konfiguration, TUI2-Transkript-Navigation, .dmg-Installationsprogramme |
54 |
| 18.12.2025 | – | Start von GPT-5.2-Codex — Kontextkompaktierung, Refactorings/Migrationen, Cybersicherheit | 28 |
| 09.12.2025 | CLI 0.66.0 | Exec-Policy-System (TUI-Whitelisting, Sandbox-Ablehnungsergänzungen), CRLF-Erhaltung, Linux-Sigstore-Signierung | 55 |
| 19.11.2025 | – | GPT-5.1-Codex-Max — Multi-Window-Kompaktierung, Windows-Training, 30 % weniger Thinking-Tokens | 29 |
| 19.11.2025 | CLI 0.59.0 | Native Kompaktierung, Tool-Ausgabelimit auf 10K Tokens erhöht, Windows Agent-Modus-Sandbox, Credits in /status |
56 |
| 25.10.2025 | CLI 0.50.0 | /feedback-Diagnose, Sandbox-Verletzungs-Risikobewertung, MCP-Startverbesserungen, Umgebungsvariablen-Schwärzung |
57 |
| 06.10.2025 | – | Codex GA auf der DevDay — Slack-Integration, SDK, Admin-Tools | 30 |
| 06.10.2025 | CLI 0.45.0 | Breaking: codex login --api-key → --with-api-key (stdin). OAuth MCP-Auth, parallele Tool-Aufrufe, pulsierende Punkt-UI |
58 |
| 23.09.2025 | – | GPT-5-Codex + IDE-Erweiterung + CLI-Überarbeitung — Bilder, Websuche, Code-Review | 31 |
| 23.09.2025 | CLI 0.40.0 | Standardmodell → gpt-5-codex, Auto-Kompaktierung bei 220K Tokens, /review-Befehle, Git-Undo, Windows-Binary-Unterstützung |
59 |
| 30.06.2025 | CLI 0.2.0 | Erstes Rust-Binary-Release — vorgefertigte Binärdateien für macOS (aarch64/x86_64) und Linux (gnu/musl), codex-exec- und codex-linux-sandbox-Tools |
60 |
| Juni 2025 | – | Rust-Neuentwicklung angekündigt („Codex CLI is Going Native”) | 32 |
| 03.06.2025 | – | Plus-Benutzererweiterung, Internetzugang für Cloud, PR-Updates, Sprachdiktat | 33 |
| 16.05.2025 | – | Start von Codex Cloud — Cloud-Agent mit codex-1-Modell, GitHub PR-Erstellung | 34 |
| 16.04.2025 | – | Open-Source-Start von Codex CLI (Apache 2.0, TypeScript, codex-mini-latest)61 | 1 |
Referenzen
Hinweis zu OpenAI-Blog-URLs: Die Referenzen 17, 26–31 und 34 verlinken auf
openai.com/index/-Blogbeiträge, die aufgrund des Cloudflare-Bot-Schutzes bei automatisiertem Zugriff HTTP 403 zurückgeben. Diese URLs sind gültig, wenn sie über einen normalen Webbrowser aufgerufen werden.
-
GitHub — openai/codex — Open-Source-Repository, Releases und Diskussionen. ↩↩↩
-
Codex CLI Windows-Unterstützung — Windows-Installation und WSL-Anleitung. ↩
-
Codex IDE-Erweiterung — Integration für VS Code, Cursor und Windsurf. ↩
-
Codex Cloud — Dokumentation für Cloud-Aufgaben und Internetzugriffssteuerung. ↩↩
-
Codex-Sicherheit — Sandbox-Architektur und Sicherheitsmodell. ↩↩↩
-
macOS Seatbelt-Sandbox — Community-Dokumentation für Apples sandbox-exec-Framework (keine offiziellen Apple-Entwicklerdokumente veröffentlicht). Hinweis: Dieses Wiki blockiert möglicherweise automatisierten Zugriff (HTTP 403); siehe auch
man sandbox-execunter macOS. ↩↩↩ -
Linux Landlock LSM — Kernel-Dateisystemzugriffskontrolle. ↩
-
Wie Codex CLI-Flags tatsächlich funktionieren — Community-Analyse der Flag-Interaktionen. ↩
-
Ausbruch aus der Sandbox — Community-Muster für Sandbox-Konfiguration. ↩
-
AGENTS.md Open Standard — Toolübergreifender Anweisungsstandard unter der Linux Foundation. ↩
-
Benutzerdefinierte Anweisungen mit AGENTS.md — Offizielle Anleitung. ↩
-
Codex MCP-Integration — MCP-Serverkonfiguration und -verwaltung. ↩
-
Workflows mit Agents SDK erstellen — Codex als MCP-Server für Multi-Agent-Orchestrierung. ↩
-
Agent Skills — Dokumentation des Skills-Systems. ↩
-
Codex CLI-Funktionen — Plan-Modus, Steer-Modus und Kollaborationsfunktionen. ↩↩
-
Nicht-interaktiver Modus — Dokumentation zu
codex exec. ↩ -
Einführung der Codex-App — Ankündigung des Desktop-App-Launches. ↩↩↩
-
Codex-App-Dokumentation — Desktop-App-Funktionen und Fehlerbehebung. ↩↩
-
Codex GitHub Action — CI/CD-Integration. ↩
-
Codex-Preise — Abonnement- und API-Preise. ↩
-
Codex-Konfigurationsreferenz — Enterprise requirements.toml-Schema und MDM-Verteilung. ↩↩↩
-
Best Practices für die Verwendung von Codex — Community-Forum-Thread. ↩
-
feiskyer/codex-settings — Von der Community gepflegte Konfigurationen, Skills und Prompts. ↩
-
Codex CLI-Releases — GitHub-Release-Notes. ↩↩
-
Einführung von GPT-5.3-Codex-Spark — Cerebras-Partnerschaft, 1000+ Tok/s. ↩↩
-
Einführung von GPT-5.3-Codex — Einheitlicher Modell-Launch. ↩
-
Einführung von GPT-5.2-Codex — Kontextkompaktierung und umfangreiche Änderungen. ↩
-
Mehr erstellen mit GPT-5.1-Codex-Max — Multi-Window-Kompaktierung. ↩
-
Codex ist jetzt allgemein verfügbar — DevDay-2025-Ankündigung. ↩
-
Einführung von Upgrades für Codex — GPT-5-Codex + IDE-Erweiterung. ↩↩
-
Codex CLI wird nativ — Diskussion zum Rust-Rewrite. ↩
-
Codex-Updates: Internetzugang und Plus-Rollout — Erweiterung im Juni 2025. ↩
-
Einführung von Codex — Cloud-Agent-Launch. ↩↩
-
Codex-Kontextfenster-Diskussion — 272K Eingabe-Token + 128K Ausgabe-Token = 400K Gesamtbudget, bestätigt durch Quellcode. ↩
-
Einstellung der chat/completions-Unterstützung in Codex — OpenAI kündigte die Entfernung der chat/completions API für Codex an, abgeschlossen im Februar 2026. ↩
-
Codex CLI v0.101.0 — Verbesserungen der Modellauflösung, Speicheroptimierungen, Stabilität. 12. Februar 2026. ↩↩
-
Codex CLI v0.100.0 — Experimentelle JS-REPL, mehrere Rate-Limits, WebSocket-Transport, Speicherbefehle, erweiterte Sandbox. 12. Februar 2026. ↩
-
Codex CLI v0.99.0 — Parallele Shell-Befehle,
/statusline, sortierbarer Resume-Picker, GIF-/WebP-Unterstützung, Shell-Snapshotting. 11. Februar 2026. ↩ -
Codex CLI v0.98.0 — GPT-5.3-Codex-Unterstützung, Steer-Modus stabil und Standard, Fixes beim Modellwechsel. 6. Februar 2026. ↩
-
Codex CLI v0.97.0 — „Erlauben und merken” MCP-Genehmigungen, Live-Skill-Erkennung,
/config-Diagnose, Speicher-Infrastruktur. 6. Februar 2026. ↩ -
Codex CLI v0.96.0 — Async-Thread/Kompaktierung v2, WebSocket Rate-Limits, unified_exec für Nicht-Windows, Konfigurationsherkunft. 6. Februar 2026. ↩
-
Codex CLI v0.95.0 — Befehl
codex app, persönliche Skills, parallele Shell-Tools, Git-Härtung. 6. Februar 2026. ↩ -
Codex CLI v0.94.0 — Plan-Modus als Standard, Personality stabil, Skills aus
.agents/skills, Laufzeitmetriken. 30. Januar 2026. ↩ -
Codex CLI v0.93.0 — SOCKS5-Proxy, Plan-Modus-Streaming,
/apps, Smart-Approvals als Standard, SQLite-Logs. 29. Januar 2026. ↩ -
Codex CLI v0.92.0 — API v2 Threads, Thread-Filterung, MCP OAuth-Scopes, Multi-Agent-Zusammenarbeit. 29. Januar 2026. ↩
-
Codex CLI v0.91.0 — Reduzierung der maximalen Sub-Agents von 12 auf 6 für striktere Ressourcengrenzen. 25. Januar 2026. ↩
-
Codex CLI v0.88.0 — Device-Code-Auth-Fallback, Kollaborationsmodi,
/fork, Remote-Modelle,model_personality-Konfiguration. 21. Januar 2026. ↩ -
Codex CLI v0.102.0 — Einheitlicher Berechtigungsablauf, strukturierte Netzwerkgenehmigungen, anpassbare Multi-Agent-Rollen, Modell-Umleitungsbenachrichtigungen. 17. Februar 2026. ↩↩
-
Codex CLI v0.103.0 — Commit-Co-Autor-Zuordnung über prepare-commit-msg-Hook, reichhaltigere App-Listing-Metadaten/-Branding, Entfernung des
remote_models-Feature-Flags. 17. Februar 2026. ↩ -
Codex CLI v0.104.0 — WS_PROXY/WSS_PROXY WebSocket-Proxy-Unterstützung, separate Genehmigungs-IDs für Befehle, Thread-Archivierungs-/Entarchivierungsbenachrichtigungen. 18. Februar 2026. ↩↩↩
-
Codex-Changelog — Codex App v26.217: Drag-and-Drop-Neuordnung, Modell-Downgrade-Warnung, Verbesserungen der unscharfen Dateisuche. Codex-Konfigurationsreferenz — Vollständige Konfigurationsschlüssel-Referenz. Februar 2026. ↩↩
-
Codex-Preise — Planebenen, Nutzungslimits pro 5-Stunden-Fenster, Kreditkosten und Free/Go-Promotionszugang. Februar 2026. ↩↩
-
Codex CLI v0.78.0 — Externer Editor mit
Ctrl+G, projektbezogene Konfigurationsschichtung, macOS-MDM-Konfiguration, TUI2-Transkript-Navigation,.dmg-Installer. 6. Januar 2026. ↩ -
Codex CLI v0.66.0 — Exec-Policy-System, CRLF-Beibehaltung unter Windows, Cloud-Exec
--branch, Linux-Sigstore-Signierung. 9. Dezember 2025. ↩ -
Codex CLI v0.59.0 — Native Kompaktierung, Tool-Ausgabelimit auf 10K Token erhöht, Windows-Agent-Modus-Sandbox, Credits in
/status. 19. November 2025. ↩ -
Codex CLI v0.50.0 —
/feedback-Diagnose, Sandbox-Verletzungs-Risikobewertung, MCP-Startverbesserungen, Umgebungsvariablen-Schwärzung. 25. Oktober 2025. ↩ -
Codex CLI v0.45.0 — Breaking:
codex login --api-key→--with-api-key(stdin). OAuth MCP-Auth, parallele Tool-Aufrufe. 6. Oktober 2025. ↩ -
Codex CLI v0.40.0 — Standardmodell →
gpt-5-codex, Auto-Kompaktierung bei 220K Token,/review-Befehle, Git-Undo, Windows-Binary. 23. September 2025. ↩ -
Codex CLI v0.2.0 — Erstes Rust-Binary-Release. Vorkompilierte Binaries für macOS (aarch64/x86_64) und Linux (gnu/musl),
codex-exec- undcodex-linux-sandbox-Tools. 30. Juni 2025. ↩ -
GitHub — openai/codex LICENSE — Apache License 2.0. Ursprünglicher Open-Source-Launch im April 2025. ↩↩↩
-
Codex CLI v0.106.0 — Direktes Installationsskript, js_repl auf /experimental hochgestuft (Node 22.22.0+), request_user_input im Default-Modus, Diff-basiertes Speichervergessen, zsh-Fork-Sandbox-Bypass-Fix, ~1M-Zeichen-Eingabelimit, Ctrl-C-Sub-Agent-Fix. 26. Februar 2026. ↩↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.105.0 — TUI-Syntaxhervorhebung mit /theme, Sprachtranskription, spawn_agents_on_csv, /copy /clear Ctrl-L, flexible Genehmigungssteuerung, Linux-/dev-Dateisystem, js_repl-Fehlerwiederherstellung. 25. Februar 2026. ↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.107.0 — Thread-Forking in Sub-Agents, Echtzeit-Sprach-Geräteauswahl, multimodale Ausgabe benutzerdefinierter Tools, konfigurierbare Speicher mit
codex debug clear-memories. 2. März 2026. ↩↩↩↩↩↩ -
Codex-Changelog — App v26.226 — MCP-Shortcuts im Composer, @Mentions in Review-Kommentaren, Mermaid-Diagramm-Fehlerbehandlung. 26. Februar 2026. ↩↩↩