Codex CLI: The Definitive Technical Reference
#
TL;DR: Codex to wielopowierzchniowy agent programistyczny, który odczytuje bazę kodu, wykonuje polecenia w piaskownicy na poziomie systemu operacyjnego, modyfikuje pliki i deleguje zadania do chmury. Wystarczy opanować pięć podstawowych systemów (config.toml, model piaskownicy/zatwierdzeń, AGENTS.md, MCP oraz skills), a Codex stanie się mnożnikiem produktywności. Profiles umożliwiają przełączanie kontekstu,
/compactpozwala zarządzać budżetem 272K tokenów, a AGENTS.md służy jako międzynarzędziowa instrukcja projektowa działająca w Codex, Cursor, Amp i innych narzędziach.
Codex działa jako wielopowierzchniowy agent programistyczny, a nie chatbot generujący kod. CLI odczytuje bazę kodu, wykonuje polecenia w piaskownicy, modyfikuje pliki, łączy się z zewnętrznymi usługami przez MCP i deleguje długotrwałe zadania do chmury. Działa lokalnie, ale myśli globalnie — ta sama inteligencja obsługuje cztery różne powierzchnie w zależności od stylu pracy.
Różnica między zwykłym a efektywnym korzystaniem z Codex sprowadza się do pięciu podstawowych systemów. Po ich opanowaniu Codex staje się mnożnikiem produktywności:
- System konfiguracji: steruje zachowaniem przez
config.toml - Model piaskownicy i zatwierdzeń: kontroluje, co Codex może wykonać
- AGENTS.md: definiuje kontrakty operacyjne na poziomie projektu
- Protokół MCP: rozszerza możliwości o zewnętrzne usługi
- System skills: pakietyzuje wiedzę domenową do wielokrotnego użytku
Spędziłem miesiące, używając Codex równolegle z Claude Code w produkcyjnych bazach kodu, pipeline’ach CI/CD i zespołowych przepływach pracy. Ten przewodnik stanowi destylat tego doświadczenia — kompletną referencję, jakiej sam szukałem na początku. Każda funkcja zawiera rzeczywistą składnię, prawdziwe przykłady konfiguracji oraz przypadki brzegowe, które potrafią zaskoczyć nawet doświadczonych użytkowników.
Uwaga dotycząca stabilności: Funkcje oznaczone
[EXPERIMENTAL]mogą ulec zmianie między wydaniami. Codex Cloud oraz grupa poleceń MCP mają status eksperymentalny od wersji v0.107.0. Podstawowe elementy — CLI, piaskownica, AGENTS.md, config.toml i Skills — są stabilne.
Najważniejsze wnioski
- Cztery interfejsy, jeden mózg: CLI, aplikacja desktopowa, rozszerzenie IDE i zadania w chmurze — wszystkie korzystają z tej samej inteligencji GPT-5.x-Codex, więc wystarczy wybrać interfejs pasujący do danego przepływu pracy.
- Sandboxing na poziomie systemu operacyjnego: Codex wymusza ograniczenia systemu plików i sieci na poziomie jądra (Seatbelt na macOS, Landlock + seccomp na Linux), a nie wewnątrz kontenerów.
- AGENTS.md działa między narzędziami: Instrukcje projektowe działają w Codex, Cursor, Copilot, Amp, Jules, Gemini CLI, Windsurf, Cline, Aider, Zed oraz w ponad 60 000 projektów open source. Wystarczy napisać raz i używać wszędzie.
- Profile oszczędzają czas przy przełączaniu kontekstu: Można zdefiniować nazwane presety konfiguracji (
fast,careful,auto) i przełączać się między nimi za pomocą--profile. - 272K tokenów kontekstu wejściowego szybko się zapełnia: Należy korzystać z
/compact, precyzyjnych promptów i referencji@file, aby proaktywnie zarządzać budżetem tokenów.
Jak korzystać z tego przewodnika
To ponad 2500 wierszy materiału referencyjnego — najlepiej zacząć od poziomu odpowiadającego własnemu doświadczeniu:
| Doświadczenie | Zacznij tutaj | Następnie zbadaj |
|---|---|---|
| Początkujący z Codex | Instalacja → Szybki start → Model mentalny | Konfiguracja, Sandbox |
| Codzienny użytkownik | AGENTS.md, Skills, Tryb planowania | MCP, Hooks |
| Lider zespołu / enterprise | Wdrożenie enterprise → Najlepsze praktyki | Ramki decyzyjne, Przepisy na przepływy pracy |
| Migracja z innego narzędzia | Przewodnik migracji | Ramki decyzyjne |
Karta szybkiego odniesienia na końcu zawiera skrócone podsumowanie wszystkich najważniejszych poleceń.
Jak działa Codex: model mentalny
Przed zagłębieniem się w funkcje warto zrozumieć, jak architektura Codex kształtuje wszystko, co można z nim zrobić. System działa na czterech interfejsach wspieranych przez współdzieloną warstwę inteligencji:
┌─────────────────────────────────────────────────────────┐
│ CODEX SURFACES │
├─────────────────────────────────────────────────────────┤
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌────────┐ │
│ │ CLI │ │ Desktop │ │ IDE │ │ Cloud │ │
│ │ Terminal │ │ App │ │Extension │ │ Tasks │ │
│ └──────────┘ └──────────┘ └──────────┘ └────────┘ │
│ Local exec Multi-task Editor-native Async │
│ + scripting + worktrees + inline edits detached │
├─────────────────────────────────────────────────────────┤
│ EXTENSION LAYER │
│ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ │
│ │ MCP │ │ Skills │ │ Apps │ │ Search │ │
│ └─────────┘ └─────────┘ └─────────┘ └─────────┘ │
│ External tools, reusable expertise, ChatGPT │
│ connectors, web search (cached + live) │
├─────────────────────────────────────────────────────────┤
│ SECURITY LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ Sandbox (Seatbelt / Landlock / seccomp) │ │
│ │ + Approval Policy (untrusted → never) │ │
│ └─────────────────────────────────────────────────┘ │
│ OS-level filesystem + network restrictions │
├─────────────────────────────────────────────────────────┤
│ CORE LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ GPT-5.x-Codex Intelligence │ │
│ │ Tools: Shell, Patch, Read, Web Search │ │
│ └─────────────────────────────────────────────────┘ │
│ Shared model across all surfaces; costs tokens │
└─────────────────────────────────────────────────────────┘
Warstwa podstawowa (Core Layer): Rodzina modeli GPT-5.x-Codex zasila wszystko. Od wersji v0.107.0 domyślnym modelem jest gpt-5.3-codex z oknem kontekstu wejściowego 272K tokenów (128K wyjściowych, łączny budżet 400K).35 Model czyta pliki, tworzy łatki, wykonuje polecenia powłoki i rozumuje nad bazą kodu. Gdy kontekst się zapełnia, Codex kompaktuje konwersację, aby zwolnić miejsce. Ta warstwa zużywa tokeny.
Warstwa bezpieczeństwa (Security Layer): Każde polecenie uruchamiane przez Codex przechodzi przez sandbox na poziomie systemu operacyjnego. Na macOS framework Seatbelt firmy Apple wymusza ograniczenia na poziomie jądra. Na Linux Landlock + seccomp filtrują dostęp do systemu plików i wywołań systemowych. Sandbox działa na poziomie jądra, a nie wewnątrz kontenerów. Następnie polityka zatwierdzania (approval policy) decyduje, kiedy prosić o potwierdzenie ze strony użytkownika.
Warstwa rozszerzeń (Extension Layer): MCP łączy zewnętrzne usługi (GitHub, Figma, Sentry). Skills to pakiety wielokrotnego użytku, które Codex ładuje na żądanie. Apps łączą się z konektorami ChatGPT. Wyszukiwanie internetowe dodaje kontekst w czasie rzeczywistym z internetu.
Warstwa interfejsów (Surface Layer): CLI dla zaawansowanych użytkowników terminala i automatyzacji. Aplikacja desktopowa do wielowątkowego zarządzania projektami. Rozszerzenie IDE do pętli edycja-kompilacja-testowanie. Chmura do zadań asynchronicznych działających niezależnie.
Kluczowa obserwacja: Większość użytkowników korzysta tylko z jednego interfejsu. Zaawansowani użytkownicy używają wszystkich czterech: chmury do długotrwałych zadań, CLI do deterministycznych operacji na repozytorium, rozszerzenia IDE do ścisłych pętli programowania oraz aplikacji desktopowej do planowania i koordynacji.
Spis treści
- Jak zainstalować Codex?
- Szybki start: pierwsza sesja
- Podstawowe interfejsy interakcji
- System konfiguracji — szczegółowe omówienie
- Który model wybrać?
- Ile kosztuje Codex?
- Ramki decyzyjne
- Jak działa sandbox i system zatwierdzeń?
- Jak działa AGENTS.md?
- Hooks
- Czym jest MCP (Model Context Protocol)?
- Środowisko uruchomieniowe JavaScript REPL
- Czym są Skills?
- Tryb planowania i współpraca
- System pamięci
- Zarządzanie sesjami
- Tryb nieinteraktywny (codex exec)
- Codex Cloud i zadania w tle
- Aplikacja desktopowa Codex
- GitHub Action i CI/CD
- Codex SDK
- Optymalizacja wydajności
- Jak debugować problemy?
- Wdrożenie enterprise
- Najlepsze praktyki i antywzorce
- Przepisy na przepływy pracy
- Przewodnik migracji
- Karta szybkiego odniesienia
- Dziennik zmian
- Odniesienia
Jak zainstalować Codex?
Menedżery pakietów
# npm (recommended)
npm install -g @openai/codex
# Homebrew (macOS)
brew install --cask codex
# Upgrade to latest
npm install -g @openai/codex@latest
Skrypt bezpośredniej instalacji (v0.106.0+)
Dla macOS i Linux dostępny jest jednolinijkowy skrypt instalacyjny jako zasób wydania na GitHub:62
curl -fsSL https://github.com/openai/codex/releases/latest/download/install.sh | sh
Skrypt automatycznie wykrywa platformę i architekturę, pobiera odpowiedni plik binarny i umieszcza go w ścieżce PATH.
Pobieranie plików binarnych
W środowiskach bez npm lub Homebrew można pobrać pliki binarne dla konkretnej platformy z wydań na GitHub1:
| Platforma | Plik binarny |
|---|---|
| macOS Apple Silicon | codex-aarch64-apple-darwin.tar.gz |
| macOS x86_64 | codex-x86_64-apple-darwin.tar.gz |
| Linux x86_64 | codex-x86_64-unknown-linux-musl.tar.gz |
| Linux arm64 | codex-aarch64-unknown-linux-musl.tar.gz |
Wymagania systemowe
- macOS: Apple Silicon lub Intel (pełne wsparcie sandboxa przez Seatbelt)
- Linux: x86_64 lub arm64 (sandbox przez Landlock + seccomp)
- Windows: Natywny sandbox z ograniczonymi tokenami (awansowany z wersji eksperymentalnej w v0.100.0). WSL również obsługiwany2
Uwierzytelnianie
codex login # Interactive OAuth (recommended)
codex login --device-auth # OAuth device code flow (headless)
codex login --with-api-key # API key from stdin
codex login status # Check auth state (exit 0 = logged in)
codex logout # Clear stored credentials
Dwie ścieżki uwierzytelniania:
- Konto ChatGPT (zalecane): Logowanie za pomocą istniejącej subskrypcji Plus, Pro, Team, Business, Edu lub Enterprise. Pełny dostęp do funkcji, w tym zadań w chmurze.
- Klucz API: Ustawiany przez zmienną środowiskową
CODEX_API_KEYlubcodex login --with-api-key. Niektóre funkcje (wątki w chmurze) mogą być niedostępne.
Wskazówka ekspercka: Sposób przechowywania danych uwierzytelniających można skonfigurować za pomocą
cli_auth_credentials_storewconfig.toml. Opcje:file(domyślnie),keyring(pęk kluczy systemu operacyjnego) lubauto(pęk kluczy, jeśli dostępny, w przeciwnym razie plik).
Uzupełnianie poleceń w powłoce
# Generate completions for your shell
codex completion bash > /etc/bash_completion.d/codex
codex completion zsh > ~/.zsh/completions/_codex
codex completion fish > ~/.config/fish/completions/codex.fish
Weryfikacja instalacji
codex --version
# Codex CLI v0.104.0
Szybki start: pierwsza sesja
Od zera do produktywności w 5 minut.
1. Instalacja i uwierzytelnianie:
npm i -g @openai/codex # Install
codex login # Log in with your OpenAI account
2. Przejście do projektu:
cd ~/my-project # Any git repo works
3. Uruchomienie Codex:
codex
Pojawi się interaktywny TUI. Codex automatycznie odczytuje strukturę projektu.
4. Zadanie pytania:
> What does this project do? Summarize the architecture.
Codex odczytuje kluczowe pliki i wyjaśnia strukturę bazy kodu. W domyślnym trybie suggest żadne zmiany nie są wprowadzane.
5. Wprowadzanie zmian:
> Add input validation to the login endpoint
Codex proponuje edycje w formie diffa. Można je zatwierdzić klawiszem y lub odrzucić klawiszem n.
6. Użycie slash commands:
> /plan Refactor the database layer to use connection pooling
Codex tworzy plan bez jego wykonywania. Po przejrzeniu planu można go zatwierdzić, aby rozpocząć realizację.
7. Sprawdzenie wyników:
> /diff
Wyświetlenie wszystkich zmian wprowadzonych przez Codex w bieżącej sesji.
Co dalej:
- Konfiguracja AGENTS.md z instrukcjami projektowymi (zob. Jak działa AGENTS.md?)
- Skonfigurowanie profilu dla własnego przepływu pracy (zob. Profile)
- Wypróbowanie codex exec do nieinteraktywnej automatyzacji (zob. Tryb nieinteraktywny)
Główne powierzchnie interakcji
Codex udostępnia cztery odrębne interfejsy oparte na tej samej inteligencji. Każda powierzchnia jest zoptymalizowana pod kątem innego wzorca pracy.
1. Interaktywny CLI (Terminal UI)
codex # Launch TUI
codex "fix the failing tests" # Launch with initial prompt
codex -m gpt-5.3-codex # Specify model
codex --full-auto # Workspace-write sandbox + on-request approval
Terminal UI to pełnoekranowa aplikacja zawierająca:
- Kompozytor: Wpisywanie promptów, dołączanie plików za pomocą
@, uruchamianie poleceń powłoki z prefiksem! - Panel wyjściowy: Strumieniowe odpowiedzi modelu, wywołania narzędzi i wyniki poleceń
- Pasek stanu: Model, zużycie tokenów, gałąź git, tryb sandbox
Kluczowe skróty TUI:
| Skrót | Działanie |
|---|---|
@ |
Rozmyte wyszukiwanie plików (dołączenie do kontekstu) |
!command |
Bezpośrednie uruchomienie polecenia powłoki |
Ctrl+G |
Otwarcie zewnętrznego edytora ($VISUAL / $EDITOR) |
Enter (w trakcie działania) |
Wstrzyknięcie nowych instrukcji w trakcie tury |
Esc dwukrotnie |
Edycja poprzednich wiadomości |
| Klawisze strzałek | Nawigacja po historii szkiców |
Slash commands dostępne w TUI:
| Polecenie | Opis |
|---|---|
/quit lub /exit |
Zamknięcie CLI |
/new |
Rozpoczęcie nowej rozmowy w tej samej sesji |
/resume |
Wznowienie zapisanej rozmowy |
/fork |
Rozgałęzienie bieżącej rozmowy do nowego wątku |
/model |
Zmiana modelu i poziomu rozumowania |
/compact |
Podsumowanie rozmowy w celu zwolnienia tokenów |
/diff |
Wyświetlenie diffa git, w tym nieśledzonych plików |
/review |
Przegląd kodu drzewa roboczego |
/plan |
Przejście do trybu planowania |
/mention |
Dołączenie pliku do rozmowy |
/init |
Wygenerowanie szkieletu AGENTS.md |
/status |
Konfiguracja sesji i zużycie tokenów |
/permissions |
Ustawienie polityki zatwierdzania |
/personality |
Styl komunikacji (friendly/pragmatic/none) |
/mcp |
Lista skonfigurowanych narzędzi MCP |
/apps |
Przeglądanie konektorów ChatGPT |
/ps |
Wyświetlenie terminali działających w tle |
/skills |
Dostęp do skills i ich wywoływanie |
/config |
Wyświetlenie efektywnych wartości konfiguracji i ich źródeł |
/statusline |
Konfiguracja stopki TUI |
/feedback |
Wysłanie logów do zespołu Codex |
/logout |
Wylogowanie |
2. Codex Desktop App (macOS)
codex app # Launch desktop app (auto-installs if missing)
Aplikacja desktopowa oferuje możliwości niedostępne w CLI:
- Wielozadaniowość: Równoczesne uruchamianie wielu równoległych agentów w różnych projektach
- Izolacja za pomocą git worktree: Każdy wątek pracuje na odizolowanej kopii repozytorium
- Wbudowany przegląd diffów: Stagowanie, cofanie i commitowanie zmian bez opuszczania aplikacji
- Zintegrowany terminal: Terminal dedykowany dla każdego wątku do uruchamiania poleceń
- Rozgałęzianie rozmów: Tworzenie odgałęzień rozmów w celu eksploracji alternatyw
- Pływające okna pop-out: Odczepianie rozmów do przenośnych okien
- Automatyzacje: Planowanie cyklicznych zadań (triage zgłoszeń, monitoring CI, reakcja na alerty)
Kiedy używać aplikacji a kiedy CLI: Aplikacja desktopowa sprawdza się przy koordynacji wielu strumieni pracy lub gdy potrzebny jest wizualny przegląd diffów. CLI jest lepszym wyborem, gdy zależy nam na kompozycji terminalowej, skryptowaniu lub integracji z CI/CD.
3. Rozszerzenie IDE (VS Code, Cursor, Windsurf)
Rozszerzenie Codex IDE integruje się bezpośrednio z edytorem:
- Tryb agenta domyślnie: Odczytywanie plików, wprowadzanie edycji, uruchamianie poleceń
- Edycje inline: Sugestie uwzględniające kontekst w aktywnych plikach
- Współdzielone sesje: Sesje synchronizowane między CLI a rozszerzeniem IDE
- Wspólne uwierzytelnianie: Logowanie kontem ChatGPT lub kluczem API
Instalacja z VS Code Marketplace lub sklepów rozszerzeń Cursor/Windsurf.3
4. Codex Cloud [EXPERIMENTAL]
Zadania w chmurze działają asynchronicznie w środowiskach zarządzanych przez OpenAI:
- Wyślij i zapomnij: Kolejkowanie zadań działających niezależnie od maszyny lokalnej
- Równoległe wykonywanie: Jednoczesne uruchamianie wielu zadań w chmurze
- Tworzenie PR: Codex tworzy pull requesty z ukończonych prac
- Lokalne zastosowanie: Pobieranie wyników z chmury do lokalnego repozytorium za pomocą
codex apply <TASK_ID>
codex cloud list # List recent cloud tasks
codex apply <TASK_ID> # Apply diff from a specific cloud task
Zadania w chmurze są również dostępne na chatgpt.com/codex.4
Szczegółowe omówienie systemu konfiguracji
Codex używa formatu TOML do konfiguracji. Zrozumienie hierarchii priorytetów jest kluczowe, ponieważ określa ona, które ustawienia mają pierwszeństwo w przypadku konfliktów.
Priorytety (od najwyższego do najniższego)
- Nadpisania sesji (najwyższy): flagi CLI (
--model,--sandbox,--ask-for-approval,--search,--enable/--disable,--profile) oraz nadpisania-c key=value - Konfiguracja projektu (
.codex/config.toml, wyszukiwana od bieżącego katalogu w górę do katalogu głównego projektu; wygrywa najbliższy katalog) - Konfiguracja użytkownika (
$CODEX_HOME/config.toml, domyślnie~/.codex/config.toml) - Konfiguracja systemowa (
/etc/codex/config.tomlw systemach Unix) - Wbudowane wartości domyślne (najniższy)
requirements.tomldziała jako warstwa ograniczeń polityki, która ogranicza wartości dostępne dla użytkowników po standardowym scaleniu konfiguracji. Zobacz Wdrożenie korporacyjne.
Lokalizacje plików konfiguracyjnych
| Zakres | Ścieżka | Przeznaczenie |
|---|---|---|
| Użytkownik | ~/.codex/config.toml |
Osobiste ustawienia domyślne |
| Projekt | .codex/config.toml |
Nadpisania dla repozytorium |
| System | /etc/codex/config.toml |
Ustawienia domyślne dla całej maszyny |
| Zarządzane | /etc/codex/requirements.toml |
Ograniczenia polityki wymuszane przez administratora |
Wskazówka ekspercka: Zmienna środowiskowa
CODEX_HOMEnadpisuje domyślny katalog~/.codex. Przydatne w środowiskach CI/CD lub przy konfiguracji wielu kont.
Kompletna dokumentacja konfiguracji
# ~/.codex/config.toml — annotated reference
# ─── Model Selection ───────────────────────────────────
model = "gpt-5.3-codex" # Default model (272K input context)
model_provider = "openai" # Provider (openai, oss, or custom provider id)
model_context_window = 272000 # Token count available to active model (override)
model_auto_compact_token_limit = 200000 # Threshold triggering automatic history compaction
model_reasoning_effort = "medium" # minimal|low|medium|high|xhigh (model-dependent)
model_reasoning_summary = "auto" # auto|concise|detailed|none
model_verbosity = "medium" # low|medium|high
personality = "pragmatic" # none|friendly|pragmatic
review_model = "gpt-5.2-codex" # Model for /review command
oss_provider = "lmstudio" # lmstudio|ollama (used with --oss)
# ─── Sandbox & Approval ───────────────────────────────
sandbox_mode = "workspace-write" # read-only|workspace-write|danger-full-access
approval_policy = "on-request" # untrusted|on-failure|on-request|never
[sandbox_workspace_write]
writable_roots = [] # Additional writable paths
network_access = false # Allow outbound network
exclude_tmpdir_env_var = false # Exclude $TMPDIR from sandbox
exclude_slash_tmp = false # Exclude /tmp from sandbox
# ─── Web Search ────────────────────────────────────────
web_search = "live" # Web search mode (constrained by allowed modes)
# ─── Instructions ──────────────────────────────────────
developer_instructions = "" # Additional injected instructions
model_instructions_file = "" # Custom instructions file path
compact_prompt = "" # Custom history compaction prompt
# ─── Shell Environment ─────────────────────────────────
allow_login_shell = false # Allow login shell semantics (loads .profile/.zprofile)
[shell_environment_policy]
inherit = "all" # all|core|none
ignore_default_excludes = false # Set true to keep KEY/SECRET/TOKEN vars
exclude = [] # Glob patterns to exclude
set = {} # Explicit overrides
include_only = [] # Whitelist patterns
# ─── Authentication ────────────────────────────────────
cli_auth_credentials_store = "file" # file|keyring|auto
forced_login_method = "chatgpt" # chatgpt|api
mcp_oauth_callback_port = 0 # Fixed port for MCP OAuth callback (0 = random)
mcp_oauth_credentials_store = "auto" # auto|file|keyring
# ─── History & Storage ─────────────────────────────────
[history]
persistence = "save-all" # save-all|none
max_bytes = 0 # Cap size (0 = unlimited)
tool_output_token_limit = 10000 # Max tokens per tool output
log_dir = "" # Custom log directory
# ─── UI & Display ──────────────────────────────────────
file_opener = "vscode" # vscode|vscode-insiders|windsurf|cursor|none
hide_agent_reasoning = false
show_raw_agent_reasoning = false
check_for_update_on_startup = true
[tui]
notifications = false # Enable notifications
notification_method = "auto" # auto|osc9|bel
animations = true
show_tooltips = true
alternate_screen = "auto" # auto|always|never
status_line = ["model", "context-remaining", "git-branch"]
# ─── Project Trust ─────────────────────────────────────
project_doc_max_bytes = 32768 # Max AGENTS.md size (32 KiB)
project_doc_fallback_filenames = [] # Alternative instruction filenames
project_root_markers = [".git"] # Project root detection
# ─── Feature Flags ─────────────────────────────────────
# Use `codex features list` for current names/stages/defaults.
[features]
shell_tool = true # Shell command execution (stable)
collaboration_modes = true # Plan mode (stable)
personality = true # Personality selection (stable)
request_rule = true # Smart approvals (stable)
unified_exec = true # PTY-backed exec (stable)
shell_snapshot = true # Shell env snapshots (stable)
command_attribution = true # Codex co-author in commits (v0.103.0+)
request_user_input = true # Allow agent to ask clarifying questions in Default mode (v0.106.0+)
multi_agent = false # Enable multi-agent collaboration tools (v0.102.0+)
apply_patch_freeform = false # Expose freeform apply_patch tool
apps = false # ChatGPT Apps/connectors (experimental)
child_agents_md = false # AGENTS.md guidance (experimental)
runtime_metrics = false # Runtime summary in turns
search_tool = false # Enable search_tool_bm25 for Apps discovery
# ─── Multi-Agent Roles (v0.102.0+) ───────────────────
[agents]
max_threads = 4 # Maximum concurrent agent threads
[agents.explorer]
description = "Read-only codebase navigator"
config_file = "~/.codex/profiles/explorer.toml"
# ─── Notifications ────────────────────────────────────
notify = ["terminal-notifier", "-title", "Codex"] # Command for notifications
# ─── Per-Project Overrides ────────────────────────────
[projects."/absolute/path/to/repo"]
trust_level = "trusted" # Per-project trust override
Profile
Nazwane zestawy konfiguracji do różnych trybów pracy:
# Define profiles in ~/.codex/config.toml
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
approval_policy = "on-request"
sandbox_mode = "workspace-write"
personality = "pragmatic"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
approval_policy = "untrusted"
sandbox_mode = "read-only"
[profiles.auto]
model = "gpt-5.3-codex"
model_reasoning_effort = "medium"
approval_policy = "never"
sandbox_mode = "workspace-write"
Aktywacja profilu:
codex --profile fast "quick refactor"
codex --profile careful "security audit"
codex -p auto "fix CI"
Wskazówka ekspercka: Można ustawić domyślny profil za pomocą
profile = "fast"na najwyższym poziomie konfiguracji. Nadpisanie dla poszczególnych sesji odbywa się za pomocą--profile.
Niestandardowi dostawcy modeli
Połączenie z Azure, modelami lokalnymi lub usługami proxy:
[model_providers.azure]
name = "Azure OpenAI"
base_url = "https://YOUR_PROJECT.openai.azure.com/openai"
wire_api = "responses"
query_params = { api-version = "2025-04-01-preview" }
env_key = "AZURE_OPENAI_API_KEY"
[model_providers.ollama]
name = "Ollama (Local)"
base_url = "http://localhost:11434/v1"
wire_api = "chat"
Uwaga: Protokół
chat/completionswire API (wire_api = "chat") został wycofany dla modeli hostowanych przez OpenAI — OpenAI ogłosiło usunięcie w lutym 2026.36 Lokalni dostawcy (Ollama, LM Studio) mogą nadal akceptować ten format. Dla endpointów OpenAI należy używaćwire_api = "responses".
Użycie modeli lokalnych za pomocą flagi --oss:
codex --oss "explain this function" # Uses default OSS provider
codex --oss --local-provider lmstudio "explain" # Explicit LM Studio
codex --oss --local-provider ollama "explain" # Explicit Ollama
Lub ustawienie w konfiguracji:
model_provider = "oss"
oss_provider = "lmstudio" # or "ollama"
Nadpisywanie konfiguracji w wierszu poleceń
Nadpisanie dowolnej wartości konfiguracyjnej z poziomu wiersza poleceń:
codex -c model="gpt-5.2-codex" "refactor the API"
codex -c 'sandbox_workspace_write.network_access=true' "install dependencies"
codex -c model_reasoning_effort="xhigh" "debug the race condition"
Który model wybrać?
Dostępne modele (luty 2026)
| Model | Wejście / Całkowity kontekst | Domyślne rozumowanie | Najlepszy do |
|---|---|---|---|
| gpt-5.3-codex | 272K / 400K | medium |
Domyślny flagowy: kodowanie + rozumowanie w jednym |
| gpt-5.3-codex-spark | 128K / 128K | high |
Praca w parach w czasie rzeczywistym, szybka interaktywna iteracja |
| gpt-5.2-codex | 272K / 400K | medium |
Długotrwałe refaktoryzacje, migracje, starszy kod |
| gpt-5.1-codex-mini | 272K / 400K | medium |
Szybkie zadania, praca z ograniczonym budżetem, CI o dużym wolumenie |
Dokładna lista modeli różni się w zależności od konta i etapu wdrożenia. Od wersji v0.106.0,
gpt-5.3-codexjest widoczny na liście modeli CLI dla użytkowników z kluczem API.62 Sprawdź lokalną pamięć podręczną:~/.codex/models_cache.json.
Schemat wyboru modelu
Is this a quick fix or simple question?
├─ Yes → gpt-5.1-codex-mini (fastest, cheapest)
└─ No
├─ Do you need real-time pairing speed?
│ ├─ Yes → gpt-5.3-codex-spark (interactive, lower latency)
│ └─ No
│ ├─ Is this a multi-file refactor or migration?
│ │ ├─ Yes → gpt-5.2-codex (272K context, strong at long tasks)
│ │ └─ No → gpt-5.3-codex (default, best overall)
└─ Still unsure? → gpt-5.3-codex
Poziom rozumowania
Kontrola intensywności „myślenia” modelu przed udzieleniem odpowiedzi:
| Poziom | Zachowanie | Kiedy stosować |
|---|---|---|
minimal |
Minimalne rozumowanie (tylko modele GPT-5) | Trywialne zadania, szybkie sprawdzenia |
low |
Krótkie rozumowanie | Standardowe zadania programistyczne, formatowanie |
medium |
Zrównoważone (domyślnie) | Większość prac programistycznych |
high |
Rozszerzone rozumowanie | Złożone błędy, architektura |
xhigh |
Maksymalne rozumowanie | Audyty bezpieczeństwa, głęboka analiza |
Obsługiwane poziomy zależą od modelu.
minimaljest dostępny wyłącznie dla modeli GPT-5. Nie wszystkie modele obsługują każdy poziom.
codex -c model_reasoning_effort="xhigh" "find the race condition"
Wskazówka eksperta: rozumowanie na poziomie
xhighmoże zużyć 3-5x więcej tokenów niżmediumdla tego samego promptu. Należy go zarezerwować dla naprawdę trudnych problemów, w których dodatkowe przetwarzanie się opłaca.
Przełączanie modeli
Modele można przełączać w trakcie sesji za pomocą slash command /model lub ustawić dla pojedynczego uruchomienia przez --model / -m:
codex -m gpt-5.3-codex-spark "pair with me on this component"
Ile kosztuje Codex?
Zobacz także Wybór modelu w zakresie możliwości oraz Ramy decyzyjne w zakresie wyboru odpowiedniego modelu do zadania.
Dostęp przez plany ChatGPT
Dostępność Codex zależy od planu ChatGPT i ustawień organizacji:53
| Plan | Cena | Dostęp do Codex | Limity (okno 5-godzinne) |
|---|---|---|---|
| Free / Go | 0 $ / 5 $ | Ograniczony dostęp promocyjny | Niski |
| Plus | 20 $/mies. | Lokalne CLI + zadania w chmurze (2x limity) | 45-225 wiadomości lokalnych, 10-60 zadań w chmurze |
| Pro | 200 $/mies. | Priorytetowe przetwarzanie, GPT-5.3-Codex-Spark (2x limity) | 300-1500 wiadomości lokalnych, 50-400 zadań w chmurze |
| Business | 30 $/użytkownik/mies. | Przydział zespołowy, większe maszyny wirtualne w chmurze, SAML SSO (2x limity) | 45-225 wiadomości lokalnych, 10-60 zadań w chmurze |
| Enterprise / Edu | Kontakt z działem sprzedaży | Indywidualny przydział, kontrole administracyjne, dzienniki audytu | Skalowane z kredytami |
| Klucz API | Rozliczenie za zużycie | CLI, SDK, tylko IDE (bez funkcji chmurowych) | Na podstawie tokenów |
Stawki promocyjne: dostęp Free/Go oraz podwójne limity dla płatnych planów zbiegły się z premierą Codex Desktop App (luty 2026). Te wyższe limity obowiązują na wszystkich platformach — aplikacja, CLI, IDE i chmura. OpenAI nie ogłosiło daty zakończenia promocji.17
Koszty kredytów
Operacje Codex zużywają kredyty z przydziału planu:
| Operacja | Przybliżone kredyty | Uwagi |
|---|---|---|
| Wiadomość lokalna (GPT-5.3-Codex) | ~5 | Standardowy model flagowy |
| Wiadomość lokalna (GPT-5.1-Codex-Mini) | ~1 | 4x więcej wiadomości na budżet kredytów |
| Zadanie w chmurze | ~25 | Uruchamiane w środowisku zarządzanym przez OpenAI |
| Przegląd kodu (na PR) | ~25 | Przez /review lub przegląd w chmurze |
Plany Enterprise i Edu skalują kredyty zgodnie z przydziałem kontraktowym. Sprawdź
/statusw TUI, aby zobaczyć bieżące zużycie.
Rozliczenia API
Podczas korzystania z Codex przez API OpenAI nalicza opłaty za zużycie na podstawie tokenów, zgodnie ze standardowym cennikiem OpenAI API dla wybranego modelu (z uwzględnieniem ewentualnych rabatów za buforowanie promptów). Aktualne stawki można sprawdzić na oficjalnej stronie z cenami API.21
Strategie optymalizacji kosztów
- Używaj profili: utwórz profil
fastz modelemgpt-5.1-codex-miniimodel_reasoning_effort = "low"do rutynowych zadań - Zarezerwuj wysoki poziom rozumowania: używaj
xhighwyłącznie do naprawdę trudnych problemów, ponieważ kosztuje 3-5x więcej tokenów - Używaj
--ephemeral: pomiń trwałość sesji w CI/CD, aby zmniejszyć obciążenie - Minimalizuj podsumowania rozumowania: ustaw
model_reasoning_summary = "none", gdy nie potrzebujesz wyjaśnień - Grupuj z trybem exec:
codex execeliminuje obciążenie TUI w przepływach automatyzacji - Monitoruj zużycie: sprawdzaj
/statusw TUI oraz panele rozliczeniowe organizacji
Realne przykłady kosztów
Reprezentatywne koszty API dla typowych zadań (gpt-5.3-codex w standardowym cenniku, rozumowanie medium):
| Zadanie | Tokeny wejściowe | Tokeny wyjściowe | Przybliżony koszt |
|---|---|---|---|
| Wyjaśnienie modułu o 500 liniach | ~15K | ~2K | ~0,25 $ |
| Naprawa nieudanego testu (1-2 pliki) | ~30K | ~5K | ~0,50 $ |
| Dodanie nowego endpointu API z testami | ~60K | ~15K | ~1,10 $ |
| Refaktoryzacja modułu autoryzacji (10 plików) | ~120K | ~30K | ~2,25 $ |
Pełny audyt repozytorium przez codex exec |
~200K | ~20K | ~3,00 $ |
| Zadanie w chmurze: triażowanie 20 otwartych zgłoszeń | ~250K | ~40K | ~4,50 $ |
Koszty różnią się w zależności od poziomu rozumowania, buforowania i długości konwersacji. Używaj
gpt-5.1-codex-minido rutynowych zadań, aby obniżyć koszty o ~40-60%. Buforowane tokeny wejściowe są rozliczane z rabatem.
Ukryty narzut tokenowy
Każde wywołanie narzędzia dodaje tokeny wykraczające poza widoczny prompt:
| Źródło narzutu | Przybliżony koszt |
|---|---|
| Prompt systemowy + AGENTS.md | ~2-5K tokenów na turę (ładowane raz, potem buforowane) |
| Definicje narzędzi | ~500 tokenów na zarejestrowane narzędzie |
Odczyty plików (@file) |
Pełna zawartość pliku w tokenach |
| Definicje narzędzi MCP | ~200-500 tokenów na podłączony serwer |
| Ślady rozumowania | Zmienne; xhigh może dodać 3-5x narzutu |
Wskazówka eksperta: monitoruj rzeczywiste zużycie przez
/statusw TUI. Liczba tokenów obejmuje cały narzut, nie tylko widoczne wiadomości. Jeśli koszty są zaskakująco wysokie, sprawdź liczbę podłączonych serwerów MCP — każdy dodaje definicje narzędzi do każdego wywołania API.
Zarządzanie kosztami zespołu
| Wielkość zespołu | Zalecana konfiguracja | Przewidywany koszt miesięczny |
|---|---|---|
| Indywidualny programista | Domyślny model, rozumowanie medium |
20-80 $ |
| Mały zespół (3-5) | Profile (fast/careful), przeglądy kodu przez codex exec |
200-500 $ |
| Średni zespół (10-20) | Plan Enterprise, limity w requirements.toml, integracja CI |
1 000-3 000 $ |
| Duża organizacja (50+) | Enterprise z kontrolami administracyjnymi, rejestracją audytów, przydzielonymi budżetami | Ceny indywidualne |
Strategie kontroli kosztów zespołu:
- Ustaw requirements.toml, aby wymusić limity modeli i poziomu rozumowania w całej organizacji
- Używaj gpt-5.1-codex-mini dla CI/CD — zautomatyzowane potoki rzadko potrzebują maksymalnego rozumowania
- Budżetowanie oparte na profilach — zdefiniuj profile ci, review i dev z odpowiednimi pułapami kosztów
- Monitorowanie przez OpenTelemetry — wdrożenia enterprise mogą eksportować telemetrię zużycia do istniejących stosów obserwacyjnych
Ramki decyzyjne
Kiedy używać poszczególnych interfejsów
| Scenariusz | Najlepszy interfejs | Dlaczego |
|---|---|---|
| Szybka naprawa błędu | CLI | Szybki, skoncentrowany, skryptowalny |
| Refaktoryzacja wielu plików | CLI lub App | CLI do deterministycznych łatek; App do wizualnego przeglądu zmian |
| Eksploracja nieznanego kodu | CLI | Komponowalność terminala, integracja z grep/find |
| Równoległe strumienie pracy | Desktop App | Izolacja worktree, zarządzanie wieloma zadaniami |
| Aktywna edycja plików | IDE Extension | Edycja inline, szybka pętla kompilacja-testowanie |
| Długotrwała migracja | Cloud | Działa niezależnie, tworzy PR po zakończeniu |
| Automatyzacja CI/CD | codex exec |
Nieinteraktywny, wyjście JSON, skryptowalny |
| Przegląd kodu | CLI lub App | Polecenie /review z presetami |
| Wdrażanie zespołu | Desktop App | Wizualny, prowadzący, wymaga mniejszej znajomości terminala |
Kiedy używać poszczególnych trybów sandbox
| Scenariusz | Tryb | Zatwierdzanie | Dlaczego |
|---|---|---|---|
| Eksploracja nieznanego kodu | read-only |
untrusted |
Maksymalne bezpieczeństwo, nie można nic zepsuć |
| Codzienna praca deweloperska | workspace-write |
on-request |
Dobra równowaga między szybkością a bezpieczeństwem |
| Zaufana automatyzacja | workspace-write |
never |
Szybka, nieprzerwana, w sandboxie |
| Administracja systemem | danger-full-access |
on-request |
Wymaga pełnego dostępu, ale z zatwierdzaniem przez człowieka |
| Pipeline CI/CD | workspace-write |
never |
Zautomatyzowana, ograniczona do workspace |
Kiedy używać poszczególnych poziomów rozumowania
| Typ zadania | Rozumowanie | Model | Profil |
|---|---|---|---|
| Formatowanie, linting | low |
gpt-5.1-codex-mini |
fast |
| Standardowe programowanie | low-medium |
gpt-5.3-codex |
domyślny |
| Złożone debugowanie | high |
gpt-5.3-codex |
careful |
| Audyt bezpieczeństwa | xhigh |
gpt-5.3-codex |
careful |
| Szybkie prototypowanie | low |
gpt-5.3-codex-spark |
fast |
| Migracja/refaktoryzacja | medium-high |
gpt-5.2-codex |
domyślny |
Tryb planowania a bezpośrednie wykonanie
Will Codex need to change more than 3 files?
│
├── YES → Use Plan Mode (/plan)
│ Codex designs the approach BEFORE making changes.
│ You review and approve the plan.
│ Best for: refactors, new features, migrations
│
└── NO → Is the change well-defined?
│
├── YES → Direct execution
│ Just describe the task. Codex executes immediately.
│ Best for: bug fixes, small features, test additions
│
└── NO → Use Plan Mode (/plan)
Let Codex explore and propose an approach first.
Best for: unfamiliar codebases, ambiguous requirements
Steer Mode: Enter a Tab
| Sytuacja | Użyj Enter | Użyj Tab |
|---|---|---|
| Codex zamierza popełnić błąd | Wyślij korektę natychmiast | |
| Masz kolejne zadanie | Dodaj je do kolejki po bieżącej pracy | |
| Codex wybrał niewłaściwy plik | Wyślij przekierowanie natychmiast | |
| Chcesz rozszerzyć zakres | Dodaj rozszerzenie do kolejki | |
| Pilna zmiana priorytetu | Wyślij nowy priorytet natychmiast | |
| Niekrytyczny kontekst | Dodaj do kolejki — bez pośpiechu |
Zasada ogólna: Enter = „zatrzymaj się, posłuchaj tego teraz.” Tab = „kiedy skończysz, zrób też to.”
Desktop App a CLI
How do you prefer to work?
│
├── Terminal-first → Use CLI
│ │
│ ├── Single focused task → codex (interactive TUI)
│ ├── Scripted automation → codex exec (non-interactive)
│ └── Quick one-shot → codex exec "prompt" -o result.txt
│
└── Visual/multi-project → Use Desktop App
│
├── Multiple parallel tasks → Multi-thread with worktree isolation
├── Visual diff review → Built-in Git diff viewer
├── Scheduled automation → Automations tab
└── Voice-driven → Ctrl+M for voice dictation
| Możliwość | CLI | Desktop App |
|---|---|---|
| Sesje interaktywne | Tak | Tak |
| Równoległe agenty | Ręcznie (wiele terminali) | Wbudowane (izolacja worktree) |
| Przegląd zmian | /diff (tekst) |
Wizualne różnice inline |
| Automatyzacje | Cron + codex exec |
Harmonogram GUI |
| Wprowadzanie głosowe | Nie | Tak (Ctrl+M) |
| Integracja CI/CD | codex exec + GitHub Action |
Nie |
| Synchronizacja sesji | Tak | Tak (współdzielona z CLI) |
Który profil?
Dopasuj zadanie do wstępnie skonfigurowanego profilu:
| Typ zadania | Profil | Kluczowe ustawienia |
|---|---|---|
| Szybkie pytania, formatowanie | fast |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low" |
| Codzienna praca deweloperska | (domyślny) | model = "gpt-5.3-codex", model_reasoning_effort = "medium" |
| Architektura, bezpieczeństwo | careful |
model = "gpt-5.3-codex", model_reasoning_effort = "xhigh" |
| Programowanie w parach w czasie rzeczywistym | pair |
model = "gpt-5.3-codex-spark", model_reasoning_effort = "high" |
| Automatyzacja CI/CD | ci |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low", sandbox_mode = "workspace-write" |
Konfiguracja config.toml:
# Default profile
profile = "default"
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
[profiles.pair]
model = "gpt-5.3-codex-spark"
model_reasoning_effort = "high"
[profiles.ci]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
sandbox_mode = "workspace-write"
Przełączanie profilu na sesję: codex --profile careful
Jak działa system sandbox i zatwierdzania?
Codex wykorzystuje dwuwarstwowy model bezpieczeństwa, który oddziela to, co jest technicznie możliwe od momentu, w którym Codex prosi o zatwierdzenie przez człowieka. Podejście to różni się fundamentalnie od systemu uprawnień Claude Code — Codex wymusza ograniczenia na poziomie jądra systemu operacyjnego.5 Zobacz również Wdrożenia korporacyjne dla ograniczeń w requirements.toml, które administratorzy wymuszają w całej organizacji.
Warstwa 1: Sandbox (co jest możliwe)
Sandbox kontroluje dostęp do systemu plików i sieci przy użyciu natywnych mechanizmów systemu operacyjnego:
| Tryb | Dostęp do plików | Sieć | Implementacja |
|---|---|---|---|
read-only |
Tylko odczyt wszędzie | Zablokowana | Najściślejszy; modyfikacje wymagają jawnego zatwierdzenia |
workspace-write |
Odczyt/zapis w workspace + /tmp |
Domyślnie zablokowana | Normalne programowanie; bezpieczne ustawienie domyślne |
danger-full-access |
Pełny dostęp do maszyny | Włączona | Maksymalne możliwości; należy używać ostrożnie |
Wymuszanie specyficzne dla platformy:
- macOS: Framework Seatbelt firmy Apple poprzez
sandbox-execz profilami specyficznymi dla trybu, kompilowanymi w czasie wykonania i wymuszanymi przez jądro6 - Linux: Landlock do ograniczeń systemu plików + seccomp do filtrowania wywołań systemowych. Oddzielny proces pomocniczy (
codex-linux-sandbox) zapewnia izolację w modelu obrony wielowarstwowej.5 Bubblewrap (bwrap) jest dołączany i kompilowany jako część kompilacji dla systemu Linux (awansowany z opcjonalnego w v0.100.0)7 - Windows: Natywny sandbox z ograniczonymi tokenami (awansowany z eksperymentalnego w v0.100.0). WSL jest również obsługiwany (dziedziczy Landlock + seccomp z systemu Linux)
Dlaczego to ma znaczenie: W przeciwieństwie do sandboxingu opartego na kontenerach (Docker), sandboxing na poziomie systemu operacyjnego jest szybszy, lżejszy i trudniejszy do obejścia. Jądro wymusza ograniczenia zanim Codex w ogóle zobaczy wywołanie systemowe.
Poprawki bezpieczeństwa:
- Obejście sandboxa przez fork zsh (v0.106.0): Naprawiono lukę, w której wykonanie powłoki przez forkowanie zsh mogło obejść ograniczenia sandboxa.62 W przypadku korzystania z wcześniejszej wersji należy natychmiast zaktualizować.
- Limit rozmiaru danych wejściowych (v0.106.0): Codex wymusza teraz limit około 1 miliona znaków na dane wejściowe, aby zapobiec zawieszaniu się przy nadmiernie dużych danych.62
- System plików /dev w systemie Linux (v0.105.0): Polecenia w sandboxie na Linuksie otrzymują teraz minimalny system plików /dev, co poprawia kompatybilność z narzędziami oczekującymi węzłów urządzeń.63
Polityka ReadOnlyAccess (v0.100.0+): Konfigurowalna polityka zapewniająca szczegółową kontrolę dostępu do odczytu. Służy do ograniczania katalogów, z których Codex może czytać, nawet w trybie workspace-write:
[sandbox_workspace_write]
read_only_access = ["/etc", "/usr/local/share"] # Only these paths readable outside workspace
Warstwa 2: Polityka zatwierdzania (kiedy pytać)
Polityka zatwierdzania określa, kiedy Codex wstrzymuje się, aby poprosić o potwierdzenie ze strony człowieka:
| Polityka | Zachowanie | Zastosowanie |
|---|---|---|
untrusted |
Automatycznie wykonuje bezpieczne odczyty; pyta o wszystko inne | Najwyższy próg zaufania; nieznane repozytoria |
on-failure |
Automatycznie wykonuje do momentu błędu, potem pyta | Półautomatyczny; wychwytuje błędy |
on-request |
Zatwierdza w ramach sandboxa; pyta przy naruszeniach granic | Domyślny; dobra równowaga |
never |
Brak pytań | CI/CD, zaufana automatyzacja |
Unikalne identyfikatory zatwierdzania (v0.104.0+)
Codex przypisuje teraz unikalne identyfikatory zatwierdzania do każdego polecenia w ramach wieloetapowego wykonywania powłoki. Oznacza to, że zatwierdzenia są szczegółowe — zatwierdzenie jednego polecenia w sekwencji nie oznacza automatycznego zatwierdzenia kolejnych w tej samej sesji powłoki.51
Elastyczne mechanizmy zatwierdzania (v0.105.0+)
Proces zatwierdzania obsługuje teraz dodatkowe uprawnienia sandboxa i szczegółowe odrzucanie:63
- Dodatkowe uprawnienia sandboxa: Gdy polecenie wymaga dostępu wykraczającego poza bieżący tryb sandboxa, Codex może zażądać konkretnych dodatkowych uprawnień zamiast wymagać pełnej zmiany trybu
- Szczegółowe odrzucanie: Odrzucanie poszczególnych wywołań narzędzi z informacją zwrotną, dzięki czemu Codex może dostosować swoje podejście zamiast po prostu powtarzać to samo polecenie
Flaga --full-auto
--full-auto to wygodny alias dla:
codex --sandbox workspace-write --ask-for-approval on-request
Ważna uwaga: --full-auto nadpisuje każdą jawną wartość --sandbox. Jeśli zostanie przekazane --full-auto --sandbox read-only, wynikiem będzie workspace-write, ponieważ --full-auto ma pierwszeństwo.8
Zalecane konfiguracje
Codzienne programowanie (bezpieczne ustawienie domyślne):
sandbox_mode = "workspace-write"
approval_policy = "on-request"
Zaawansowany użytkownik (pełny dostęp, człowiek w pętli):
sandbox_mode = "danger-full-access"
approval_policy = "untrusted"
Ta kombinacja jest rekomendowanym przez społeczność optymalnym rozwiązaniem: maksymalne możliwości, ale zatwierdzenie wymagane dla każdego polecenia.9
Automatyzacja CI/CD:
sandbox_mode = "workspace-write"
approval_policy = "never"
Włączanie dostępu do sieci
Codex domyślnie blokuje dostęp do sieci w trybie workspace-write. Należy go włączyć w razie potrzeby:
# Per-run
codex -c 'sandbox_workspace_write.network_access=true' "install the packages"
# In config.toml
[sandbox_workspace_write]
network_access = true
writable_roots = ["/path/to/extra/dir"] # Additional writable directories
exclude_slash_tmp = false # Prevent /tmp from being writable
exclude_tmpdir_env_var = false # Prevent $TMPDIR from being writable
Obsługa proxy WebSocket (v0.104.0+)
W środowiskach korporacyjnych, które kierują ruch WebSocket przez proxy, Codex obsługuje teraz zmienne środowiskowe WS_PROXY i WSS_PROXY:51
export WSS_PROXY="https://proxy.corp.example.com:8443"
codex "update the README"
Uzupełniają one istniejącą obsługę proxy HTTPS_PROXY i SOCKS5 (v0.93.0+), obejmując wszystkie warstwy transportu.
Testowanie sandboxa
Przed zaufaniem sandboxowi należy zweryfikować jego zachowanie:
codex sandbox macos --full-auto -- ls /etc/passwd # macOS test
codex sandbox linux --full-auto -- cat /etc/shadow # Linux test
Jeśli sandbox działa prawidłowo, oba polecenia powinny zakończyć się błędem odmowy dostępu — sandbox uniemożliwia odczyt wrażliwych plików systemowych nawet w trybie --full-auto. Jeśli którekolwiek polecenie się powiedzie, konfiguracja sandboxa wymaga zbadania.
Jak działa AGENTS.md?
AGENTS.md to system instrukcji projektowych Codex — otwarty standard10 zarządzany obecnie przez Agentic AI Foundation w ramach Linux Foundation. Obsługiwany przez Codex, Cursor, Copilot, Amp, Jules (Google), Gemini CLI, Windsurf, Cline, Aider, Zed, Factory, RooCode oraz ponad 60 000 projektów open source. Definiuje sposób, w jaki Codex zachowuje się w ramach konkretnego repozytorium lub katalogu. Zobacz Skills dla pakietów wiedzy eksperckiej wielokrotnego użytku, które uzupełniają AGENTS.md.
Hierarchia odkrywania
Codex buduje łańcuch instrukcji na początku sesji, przechodząc drzewo katalogów:
- Globalny (
~/.codex/):AGENTS.override.md>AGENTS.md - Projektowy (korzeń git do bieżącego katalogu): Każdy poziom sprawdzany pod kątem
AGENTS.override.md>AGENTS.md> nazwy zastępcze - Scalanie: Pliki są łączone od korzenia w dół; pliki bliższe pojawiają się później w prompcie i nadpisują wcześniejsze wytyczne
~/.codex/AGENTS.md ← Global defaults
└─ /repo/AGENTS.md ← Project-wide rules
└─ /repo/services/AGENTS.md ← Service-specific rules
└─ /repo/services/payments/
AGENTS.override.md ← Overrides everything above for this dir
Co tworzy dobry plik AGENTS.md
Na podstawie bezpośrednich wskazówek od samego Codex oraz wzorców społeczności11:
NALEŻY:
- Być konkretnym: "Use rg --files for discovery" jest lepsze niż "search efficiently"
- Definiować zakończenie: Co oznacza „gotowe”? (testy przechodzą, linting czysty itp.)
- Zawierać polecenia: Build, test, lint, format (dokładne wywołania)
- Organizować według zadań: Sekcje kodowania, przeglądu, wydawania, debugowania
- Definiować eskalację: Co robić w przypadku blokady lub nieoczekiwanego stanu
NIE NALEŻY: - Kopiować całych przewodników stylu bez reguł wykonawczych - Używać niejednoznacznych dyrektyw („bądź ostrożny”, „optymalizuj”) - Mieszać sprzecznych priorytetów (szybkość + wyczerpująca weryfikacja + brak budżetu czasu wykonania) - Pisać dokumentacji opisowej (AGENTS.md to polityka operacyjna, nie README)
Przykład: Produkcyjny AGENTS.md
# Repository Guidelines
## Build, Test, and Development Commands
- Run API (dev): `python3 -m uvicorn main:app --reload`
- Install deps: `pip install -r requirements.txt`
- Lint: `python3 -m ruff check .` (auto-fix: `--fix`)
- Format: `python3 -m ruff format .`
- Tests: `python3 -m pytest -v`
- Coverage: `python3 -m pytest --cov=app --cov-report=term-missing`
## Coding Style & Naming Conventions
- Python 3.11+. Type hints on all functions.
- Ruff enforced: 88-char lines, double quotes, spaces for indent.
- Naming: modules `snake_case.py`, classes `PascalCase`, functions `snake_case`.
## Commit & Pull Request Guidelines
- Conventional Commits: `feat:`, `fix:`, `docs:`, `refactor:`, `chore:`, `test:`
- Commits should be small and focused.
- PRs must include: description, test plan, and screenshots for UI changes.
## Bezpieczeństwo
- Nigdy nie commituj sekretów. Używaj `.env` do lokalnej konfiguracji.
- Waliduj wszystkie zewnętrzne wywołania API z odpowiednią obsługą błędów.
Mechanizm nadpisywania
AGENTS.override.md na dowolnym poziomie katalogu zastępuje standardowy AGENTS.md dla danego zakresu. Zastosowania:
- Zamrożenie wydania: „Żadnych nowych funkcji, tylko poprawki”
- Tryb incydentu: „Wszystkie zmiany muszą być zrecenzowane przez dyżurnego”
- Tymczasowe zaostrzenie: „Żadnych aktualizacji zależności w tym sprincie”
Konfiguracja
# Custom fallback filenames (in addition to AGENTS.md)
project_doc_fallback_filenames = ["TEAM_GUIDE.md", ".agents.md"]
# Increase max size for large instruction files
project_doc_max_bytes = 65536 # 64 KiB (default: 32 KiB)
Generowanie szablonu
codex # Launch TUI
/init # Generate AGENTS.md scaffold
Lub weryfikacja łańcucha instrukcji:
codex --ask-for-approval never "Summarize your current instructions"
Hooks
Codex dodał hooks w wersji v0.99.0 (AfterAgent) i v0.100.0 (AfterToolUse). System hooks jest we wczesnej fazie rozwoju w porównaniu z ponad 12 zdarzeniami cyklu życia w Claude Code, ale zapewnia punkty wejścia do automatyzacji typowych przepływów pracy.
Dostępne zdarzenia hooks
| Zdarzenie | Kiedy jest wywoływane | Dodano |
|---|---|---|
AfterAgent |
Po zakończeniu pełnej tury agenta | v0.99.0 |
AfterToolUse |
Po zakończeniu każdego pojedynczego wywołania narzędzia | v0.100.0 |
Konfiguracja hooks
Hooks konfiguruje się w .codex/config.toml:
[[hooks]]
event = "AfterToolUse"
command = "echo 'Tool completed' >> /tmp/codex-log.txt"
Odtwarzanie wzorców hooks z Claude Code
Podczas migracji z Claude Code poniżej przedstawiono sposoby osiągnięcia podobnej automatyzacji bez pełnego zestawu zdarzeń hooks:
| Wzorzec Claude Code | Alternatywa w Codex |
|---|---|
PreToolUse blokowanie plików |
Instrukcje AGENTS.md + tryb sandbox read-only |
PostToolUse linting |
Hook AfterToolUse uruchamiający linter |
SessionStart wstrzykiwanie kontekstu |
AGENTS.md (ładowany automatycznie w każdej sesji) |
SubagentStop powiadomienia |
Hook AfterAgent ze skryptem powiadomień |
| Asynchroniczne hooks | Jeszcze nieobsługiwane; użyj zadań Cloud do pracy w tle |
Wskazówka ekspercka: System hooks jest aktywnie rozwijany. Sprawdzaj dziennik zmian Codex, aby śledzić nowe zdarzenia hooks w każdym wydaniu.
Czym jest MCP (Model Context Protocol)? [EXPERIMENTAL]
MCP rozszerza możliwości Codex poprzez łączenie z zewnętrznymi narzędziami i usługami. Grupa poleceń codex mcp jest obecnie oznaczona jako eksperymentalna, a polecenia i format konfiguracji mogą się zmieniać między wydaniami. Codex obsługuje dwa typy transportu: STDIO (procesy lokalne) i Streamable HTTP (serwery zdalne).12
Konfiguracja serwerów MCP
Serwery STDIO (procesy lokalne):
# In ~/.codex/config.toml or .codex/config.toml
[mcp_servers.context7]
enabled = true
required = true # Fail startup if unavailable
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
env = { "MY_VAR" = "value" } # Static env vars
env_vars = ["PATH", "HOME"] # Forward host env vars
cwd = "/path/to/project" # Optional working directory
startup_timeout_sec = 10
tool_timeout_sec = 60
enabled_tools = ["search", "summarize"] # Tool allowlist
disabled_tools = ["slow-tool"] # Tool denylist
Serwery HTTP (zdalne):
[mcp_servers.figma]
enabled = true
url = "https://mcp.figma.com/mcp"
bearer_token_env_var = "FIGMA_OAUTH_TOKEN"
http_headers = { "X-Figma-Region" = "us-east-1" }
env_http_headers = { "X-Org-Id" = "FIGMA_ORG_ID" } # Headers from env vars
startup_timeout_sec = 10
tool_timeout_sec = 60
Zarządzanie CLI
codex mcp add context7 -- npx -y @upstash/context7-mcp
codex mcp add context7 --env API_KEY=... -- npx -y @upstash/context7-mcp # With env vars
codex mcp add figma --url https://mcp.figma.com/mcp --bearer-token-env-var FIGMA_OAUTH_TOKEN
codex mcp list # List all configured servers
codex mcp list --json # JSON output
codex mcp get context7 # Show server config
codex mcp get context7 --json # JSON output
codex mcp login <server> # OAuth flow for HTTP servers
codex mcp logout <server> # Remove OAuth credentials
codex mcp remove <server> # Delete server definition
W sesji: /mcp wyświetla aktywne serwery i dostępne narzędzia.
Uruchamianie Codex JAKO serwer MCP
Codex może udostępniać się jako serwer MCP na potrzeby wieloagentowej orkiestracji:13
codex mcp-server # Start as MCP server (stdio transport)
Serwer udostępnia dwa narzędzia:
1. codex(): Rozpoczęcie nowej sesji z parametrami prompt, sandbox, model i approval
2. codex-reply(): Kontynuacja istniejącej sesji z threadId i prompt
Użycie z Agents SDK (Python):
from agents import Agent, Runner
from agents.mcp import MCPServerStdio
async with MCPServerStdio(
name="Codex CLI",
params={"command": "npx", "args": ["-y", "codex", "mcp-server"]},
client_session_timeout_seconds=360000,
) as codex_mcp_server:
agent = Agent(name="Developer", mcp_servers=[codex_mcp_server])
result = await Runner.run(agent, "Fix the failing tests")
Popularne serwery MCP
| Serwer | Przeznaczenie | Instalacja |
|---|---|---|
| Context7 | Aktualna dokumentacja bibliotek | npx -y @upstash/context7-mcp |
| Figma | Dostęp do plików projektowych | HTTP: https://mcp.figma.com/mcp |
| Playwright | Automatyzacja przeglądarki | npx -y @anthropic/mcp-playwright |
| Sentry | Monitorowanie błędów | HTTP: https://mcp.sentry.dev/mcp |
| GitHub | Operacje na repozytoriach | npx -y @anthropic/mcp-github |
Wzorce praktyczne
Wzorzec 1: Rozwój z uwzględnieniem kontekstu — Połącz Context7 z dokumentacją frameworka, aby Codex zawsze miał aktualne odniesienia API:
[mcp_servers.context7]
enabled = true
required = true
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
Wzorzec 2: Limity wyjścia — Odpowiedzi narzędzi MCP są domyślnie obcinane do ~25 000 znaków. W przypadku narzędzi zwracających duże ładunki (zapytania do bazy danych, przechwytywanie logów) należy użyć enabled_tools, aby ograniczyć się do konkretnych narzędzi i utrzymać skupione odpowiedzi.
Wzorzec 2a: Multimodalne dane wyjściowe narzędzi (v0.107.0) — Niestandardowe narzędzia mogą teraz zwracać multimodalne dane wyjściowe (obrazy, treści rozszerzone) obok tekstu. Umożliwia to narzędziom generującym artefakty wizualne — zrzuty ekranu, diagramy, renderowania wykresów — przekazywanie ich bezpośrednio do modelu do analizy.64
Wzorzec 3: Zarządzanie MCP w przedsiębiorstwie — Kontrola dostępu do serwerów MCP dla deweloperów za pomocą requirements.toml:
# In /etc/codex/requirements.toml — only approved servers allowed
[mcp_servers.approved-internal]
identity = { command = "npx @company/internal-mcp" }
Każdy serwer, który nie pasuje do tożsamości w requirements.toml, zostanie zablokowany przy starcie. Zobacz Wdrożenie w przedsiębiorstwie, aby poznać pełną konfigurację polityk.
Środowisko uruchomieniowe JavaScript REPL [EXPERIMENTAL]
Codex v0.100.0 dodał eksperymentalne środowisko uruchomieniowe JavaScript REPL (js_repl), które utrzymuje stan między wywołaniami narzędzi. W wersji v0.106.0 REPL został przeniesiony do polecenia slash /experimental z kontrolami kompatybilności przy starcie — wymaga Node.js w wersji 22.22.0 lub nowszej.62
Włączanie JS REPL:
# In config.toml
[features]
js_repl = true
Lub aktywacja w sesji za pomocą /experimental w TUI.
Przykład użycia: Po włączeniu Codex może utrzymywać stan między wywołaniami narzędzi w ramach sesji:
// Codex can accumulate data across multiple tool calls
const results = await fetchTestResults();
const failures = results.filter(r => r.status === "failed");
console.log(`${failures.length} failures out of ${results.length} tests`);
// Variable 'failures' persists and is available in subsequent tool calls
Wymagania: Node.js 22.22.0+ (kontrole przy starcie weryfikują kompatybilność). Wersja v0.105.0 dodała ulepszone raportowanie błędów i odzyskiwanie po awariach REPL.63
Ta funkcja jest eksperymentalna. Interfejs może się zmieniać między wydaniami.
Czym są skills?
Skills to wielokrotnego użytku, zadaniowe pakiety funkcjonalności, które Codex ładuje na żądanie. Są zgodne z otwartym standardem agent skills.14
Struktura skill
my-skill/
SKILL.md (required: instructions)
scripts/ (optional: executable scripts)
references/ (optional: reference docs)
assets/ (optional: images, icons)
agents/openai.yaml (optional: metadata, UI, dependencies)
Lokalizacje wykrywania
Codex przechowuje zainstalowane przez użytkownika skills w $CODEX_HOME/skills (domyślnie: ~/.codex/skills), w tym wbudowane systemowe skills w katalogu .system/. Codex obsługuje foldery skills jako dowiązania symboliczne.
| Zakres | Ścieżka |
|---|---|
| Projekt/zespół | Foldery skills w repozytorium (układ może się różnić w zależności od wersji) |
| Użytkownik | ~/.codex/skills/ (lub $CODEX_HOME/skills/) |
| Administrator | /etc/codex/skills/ |
| Systemowy | Dołączane przez OpenAI (w ~/.codex/skills/.system/) |
Tworzenie skill
Format SKILL.md:
---
name: security-audit
description: Run a thorough security audit on the codebase.
---
## Procedura audytu bezpieczeństwa
1. Skanowanie w poszukiwaniu zakodowanych na stałe sekretów za pomocą `rg -i "(api_key|password|secret|token)\s*=" --type py`
2. Sprawdzanie podatności na SQL injection: szukanie interpolacji ciągów znaków w zapytaniach
3. Weryfikacja walidacji danych wejściowych na wszystkich endpointach API
4. Sprawdzanie podatności zależności: `pip audit` lub `npm audit`
5. Przegląd wzorców uwierzytelniania i autoryzacji
6. Raportowanie znalezisk z poziomami ważności (Critical/High/Medium/Low)
Metadane (agents/openai.yaml):
interface:
display_name: "Security Audit"
short_description: "Full codebase security review"
icon_small: "./assets/shield.svg"
brand_color: "#DC2626"
default_prompt: "Run a security audit on this repository"
policy:
allow_implicit_invocation: false # Require explicit $skill
dependencies:
tools:
- type: "mcp"
value: "snyk"
transport: "streamable_http"
url: "https://mcp.snyk.io/mcp"
Wywoływanie skills
- Jawne: menu
/skillslub wzmianka$skill-namew prompcie - Niejawne: Codex automatycznie wykrywa pasujące skills na podstawie opisu zadania (jeśli
allow_implicit_invocation: true) - Kreator: Użyj
$skill-creator, aby interaktywnie zbudować nowy skill - Instalator: Użyj
$skill-installer install <name>, aby zainstalować skills społeczności
Włączanie/wyłączanie
[[skills.config]]
path = "/path/to/skill/SKILL.md"
enabled = false
Skills a slash commands
| Skills | Slash commands | |
|---|---|---|
| Zdefiniowane w | Plikach SKILL.md z opcjonalnymi metadanymi |
Wbudowane w plik binarny Codex CLI |
| Zakres | Poziom projektu, użytkownika lub administratora | Globalny (zawsze dostępne) |
| Wywoływanie | $skill-name w prompcie, menu /skills lub wykrywanie niejawne |
Składnia /command |
| Konfigurowalność | Pełna — instrukcje pisze się samodzielnie | Stałe zachowanie |
| Zależności | Można deklarować wymagania serwera MCP | Brak |
| Udostępnianie | Skopiowanie folderu skill do repozytorium zespołu lub ~/.codex/skills/ |
Nieudostępnialne |
Debugowanie skills
Jeśli skill się nie aktywuje:
- Sprawdzenie wykrywalności:
/skillspowinno wyświetlić go w TUI - Weryfikacja ścieżki: Upewnij się, że folder skill znajduje się w rozpoznawanej lokalizacji (
~/.codex/skills/, katalog główny projektu lub/etc/codex/skills/) - Sprawdzenie
enabled: Skills zenabled = falsew config.toml nie zostaną załadowane - Sprawdzenie aktywacji niejawnej: Jeśli polegasz na automatycznym wykrywaniu, upewnij się, że
allow_implicit_invocation: truewagents/openai.yaml - Użycie słów kluczowych: Umieść terminy z pola
descriptionskill w swoim prompcie, aby poprawić dopasowanie niejawne
Przykład produkcyjny: skill Deploy
Kompletny wieloplikowy skill pokazujący współpracę referencji i skryptów:
deploy-skill/
SKILL.md
references/
runbook.md
rollback-checklist.md
scripts/
pre-deploy-check.sh
smoke-test.sh
agents/openai.yaml
SKILL.md:
---
name: deploy
description: Deploy the application to staging or production. Runs pre-flight checks, executes deployment, and verifies with smoke tests.
---
## Deployment Procedure
### Pre-flight
1. Run `scripts/pre-deploy-check.sh` to verify:
- All tests pass
- No uncommitted changes
- Branch is up to date with remote
2. Review the runbook at `references/runbook.md` for environment-specific steps.
### Deploy
3. Execute the deployment command for the target environment.
4. Monitor logs for errors during rollout.
### Verify
5. Run `scripts/smoke-test.sh <environment-url>` to confirm critical paths.
6. If smoke tests fail, follow `references/rollback-checklist.md`.
Wywoływanie za pomocą: $deploy to staging lub $deploy production with canary rollout
Tryb planowania i współpraca
Tryb planowania umożliwia Codex zaprojektowanie podejścia przed wykonaniem zmian. Jest domyślnie włączony (od v0.94.0).15 Zobacz Ramy decyzyjne, aby zapoznać się z drzewem decyzyjnym „Tryb planowania a bezpośrednie wykonanie”.
Wejście w tryb planowania
/plan # Switch to plan mode
/plan "redesign the API layer" # Plan mode with initial prompt
W trybie planowania Codex: - Odczytuje pliki i analizuje bazę kodu - Proponuje plan implementacji - Nie wprowadza zmian, dopóki nie zatwierdzisz - Strumieniuje plan w dedykowanym widoku TUI
Tryb Steer
Tryb Steer (domyślnie włączony od v0.98.0) umożliwia wstrzykiwanie nowych instrukcji podczas aktywnej pracy Codex, bez przerywania bieżącego zadania.15
Dostępne są dwie metody wstrzykiwania:
| Wejście | Zachowanie | Kiedy używać |
|---|---|---|
| Enter | Wysyła instrukcje natychmiast; Codex widzi je podczas bieżącej tury | Pilne korekty („stop — nie modyfikuj tego pliku”), wyjaśnienia („konfiguracja jest w /etc/app.conf, nie w domyślnej ścieżce”) lub zmiany priorytetów („najpierw skup się na testach”) |
| Tab | Kolejkuje instrukcje na następną turę; Codex najpierw kończy bieżącą pracę | Zadania następcze („po tym zaktualizuj też changelog”), rozszerzenia zakresu („jak skończysz, uruchom linter”) lub mniej pilny kontekst („cel wdrożenia to staging, nie prod”) |
Praktyczne przykłady:
# Codex is refactoring the auth module...
[Enter] "Use bcrypt instead of argon2 — we already have it as a dependency"
→ Codex adjusts immediately, mid-turn
[Tab] "Once auth is done, update the migration script too"
→ Codex finishes auth refactor, then starts the migration
Tryb Steer jest zawsze aktywny w TUI. Jeśli wolisz poczekać, aż Codex zakończy pracę przed wydaniem instrukcji, po prostu wpisz je normalnie po zakończeniu tury — nie jest potrzebny żaden specjalny tryb.
Ulepszenia TUI (v0.105.0–v0.106.0)
Podświetlanie składni (v0.105.0): TUI teraz podświetla składnię bloków kodu i diffów inline. Użyj /theme, aby wybrać schemat kolorów.63
Nowe polecenia TUI (v0.105.0+):63
| Polecenie / klawisz | Opis |
|---|---|
/copy |
Kopiowanie ostatniej odpowiedzi do schowka |
/clear |
Czyszczenie ekranu TUI |
Ctrl+L |
Czyszczenie ekranu (skrót klawiaturowy) |
/theme |
Zmiana schematu kolorów podświetlania składni |
Transkrypcja głosowa (v0.105.0, eksperymentalna): Naciśnij spację, aby dyktować prompty za pomocą transkrypcji głosowej. Ta funkcja jest eksperymentalna i może wymagać uprawnień do mikrofonu.63 Od v0.107.0 sesje głosowe w czasie rzeczywistym obsługują wybór urządzeń mikrofonu i głośnika, umożliwiając wybór konkretnego sprzętu audio wejścia/wyjścia.64
Inne ulepszenia:
- Długie linki pozostają teraz klikalne nawet po zawinięciu w liniach TUI (v0.105.0)63
- Linki do plików lokalnych renderowane są z ulepszonym formatowaniem (v0.106.0)62
- Obsługa Ctrl+C dla sub-agentów naprawiona, aby prawidłowo kończyć procesy potomne (v0.106.0)62
System pamięci
Codex posiada trwały system pamięci (v0.100.0+), który przechowuje fakty, preferencje i kontekst projektu pomiędzy sesjami.25
Polecenia pamięci
| Polecenie | Opis |
|---|---|
/m_update <fact> |
Zapisanie wspomnienia (np. /m_update always use pytest, never unittest) |
/m_drop <query> |
Usunięcie wspomnienia pasującego do zapytania |
Wspomnienia są przechowywane w plikach markdown w ~/.codex/memory/. Codex ładuje je przy starcie sesji i wykorzystuje do kształtowania zachowania we wszystkich przyszłych sesjach.
Co przechowywać
Wspomnienia sprawdzają się najlepiej w przypadku trwałych preferencji i faktów projektowych:
- Konwencje projektowe: „Ten projekt używa tabulatorów, nie spacji” lub „Odpowiedzi API zawsze zawierają pole
meta“ - Preferencje narzędzi: „Używaj
pnpmzamiastnpm” lub „Uruchamiaj testy za pomocąpytest -x --tb=short“ - Decyzje architektoniczne: „Moduł auth jest w
src/core/auth/, nie wsrc/middleware/“ - Preferencje przepływu pracy: „Zawsze uruchamiaj linter przed pokazaniem mi diffa”
Pamięć w potokach
Podczas uruchamiania codex exec wspomnienia są ładowane automatycznie. Oznacza to, że potoki CI/CD i skrypty korzystają z tego samego kontekstu co sesje interaktywne — nie ma potrzeby powtarzania instrukcji przy każdym wywołaniu.
Udoskonalenia pamięci (v0.101.0–v0.107.0)
- Sanityzacja sekretów: Wspomnienia są automatycznie skanowane pod kątem sekretów przed zapisem na dysk
- Świadomość CWD: Pliki pamięci zawierają teraz kontekst katalogu roboczego dla przywoływania specyficznego dla projektu
- Wykluczanie wiadomości deweloperskich: Wiadomości deweloperskie/systemowe są wykluczane z danych wejściowych pamięci fazy 1, co poprawia jakość pamięci poprzez skupienie na interakcjach użytkownika
- Zapominanie oparte na diffach (v0.106.0): Pamięć wykorzystuje teraz zapominanie oparte na diffach do usuwania nieaktualnych faktów, utrzymując magazyn pamięci w postaci zwięzłej i aktualnej62
- Wybór uwzględniający użycie (v0.106.0): Pobieranie wspomnień jest teraz świadome użycia, priorytetyzując często odwoływane i niedawno istotne wspomnienia62
- Konfigurowalność wspomnień (v0.107.0): Wspomnienia są teraz w pełni konfigurowalne. Użyj
codex debug clear-memories, aby zresetować wszystkie przechowywane wspomnienia i zacząć od nowa — przydatne przy przełączaniu się między niepowiązanymi projektami lub gdy stan pamięci uległ rozbieżności64
Pamięć a AGENTS.md
| Zastosowanie | Pamięć (/m_update) |
AGENTS.md |
|---|---|---|
| Osobiste preferencje | Użyj pamięci (trwała pomiędzy wszystkimi projektami) | Nieodpowiednie |
| Konwencje projektowe | Oba rozwiązania (pamięć do osobistego przywoływania, AGENTS.md do udostępniania zespołowi) | AGENTS.md dla zespołu |
| Decyzje architektoniczne | AGENTS.md (wspólny kontekst) | Główny wybór |
| Polecenia narzędzi | Pamięć (szybki osobisty odnośnik) | AGENTS.md dla zespołu |
Wskazówka: Używaj
/m_updatedla faktów, które powinny być zachowane na stałe. Dla kontekstu specyficznego dla sesji, po prostu powiedz Codex bezpośrednio w rozmowie. Dla wspólnego kontekstu zespołowego używaj AGENTS.md.
Zarządzanie sesjami
Codex przechowuje sesje w katalogu ~/.codex/sessions/, umożliwiając wznawianie, rozgałęzianie i wielowątkowe przepływy pracy między CLI a aplikacją desktopową.
Wznawianie
Kontynuacja pracy od miejsca, w którym została przerwana:
codex resume # Interactive picker (sorted by recency)
codex resume <SESSION_ID> # Resume a specific session
codex exec resume --last "continue" # Non-interactive: resume most recent
Polecenie /resume w TUI otwiera ten sam interaktywny selektor z funkcją wyszukiwania.
Rozgałęzianie
Rozgałęzienie konwersacji w celu eksplorowania alternatyw bez utraty dotychczasowego postępu:
/fork # Fork current conversation
/fork "try a different approach" # Fork with new prompt
Rozgałęzienia tworzą niezależne wątki współdzielące tę samą historię aż do punktu rozgałęzienia. Zmiany w jednym rozgałęzieniu nie wpływają na drugie. Jest to przydatne do porównywania podejść (np. „rozgałęź i wypróbuj Redis zamiast Memcached”) lub bezpiecznego eksplorowania ryzykownych zmian.
Rozgałęzianie wątków w sub-agenty (v0.107.0): Wątki mogą być teraz rozgałęziane w niezależnych sub-agentów, co pozwala konwersacji uruchamiać równoległe strumienie pracy działające autonomicznie. Rozszerza to istniejący model rozgałęzień — zamiast jedynie rozgałęziać konwersację, rozgałęziony wątek staje się sub-agentem z własnym kontekstem wykonania.64
Lista wątków
Przeglądanie i zarządzanie aktywnymi sesjami:
/status # Current session info and token usage
/ps # Show background terminals in session
W aplikacji desktopowej wątki są widoczne na pasku bocznym z pełną historią i podglądem zmian.
Cykl życia sesji
| Akcja | CLI | Aplikacja desktopowa |
|---|---|---|
| Nowa sesja | codex lub /new |
Przycisk „New Thread” |
| Wznowienie | codex resume lub /resume |
Kliknięcie wątku na pasku bocznym |
| Rozgałęzienie | /fork |
Prawy przycisk → Fork |
| Zakończenie | /quit lub Ctrl+C |
Zamknięcie karty wątku |
| Usunięcie | Usunięcie z ~/.codex/sessions/ |
Prawy przycisk → Delete |
Sesje synchronizują się między CLI a aplikacją desktopową — można rozpocząć w jednym środowisku i kontynuować w drugim.
Tryb nieinteraktywny (codex exec)
codex exec uruchamia Codex w trybie nieinteraktywnym na potrzeby skryptów, CI/CD i automatyzacji.16
Podstawowe użycie
codex exec "summarize the repository structure"
codex exec --full-auto "fix the CI failure"
codex exec --json "triage open bugs" -o result.txt
Domyślnie codex exec zapisuje postęp i zdarzenia do stderr, a końcową wiadomość agenta do stdout. Taki projekt umożliwia komponowanie z standardowymi potokami Unix.
Wyjście w formacie JSON
Z flagą --json strumień stdout staje się strumieniem zdarzeń JSONL:
codex exec --json "fix the tests" | jq
Typy zdarzeń: thread.started, turn.started/completed/failed, item.started/completed, error
{"type":"thread.started","thread_id":"019c5c94-..."}
{"type":"turn.started"}
{"type":"item.started","item":{"id":"item_1","type":"command_execution","status":"in_progress"}}
{"type":"item.completed","item":{"id":"item_3","type":"agent_message","text":"..."}}
{"type":"turn.completed","usage":{"input_tokens":24763,"cached_input_tokens":24448,"output_tokens":122}}
Strukturyzowane wyjście
Wymuszanie kształtu odpowiedzi za pomocą JSON Schema:
codex exec "Extract project metadata" \
--output-schema ./schema.json \
-o ./project-metadata.json
-o / --output-last-message zapisuje końcową wiadomość do pliku.
Wznawianie i przegląd sesji
codex exec resume --last "continue where you left off"
codex exec resume <SESSION_ID> "fix the remaining issues"
codex exec review --base main # Code review against a branch
Kluczowe flagi
| Flaga | Opis |
|---|---|
--full-auto |
Sandbox workspace-write + zatwierdzanie on-request |
--json |
Strumień zdarzeń JSONL do stdout |
-o, --output-last-message <file> |
Zapis końcowej wiadomości do pliku |
--output-schema <file> |
Walidacja odpowiedzi względem JSON Schema |
--ephemeral |
Bez zapisywania plików sesji |
-C, --cd <dir> |
Ustawienie katalogu roboczego |
--add-dir <dir> |
Dodatkowe katalogi z prawem zapisu |
--skip-git-repo-check |
Zezwolenie na uruchamianie poza repozytoriami git |
--dangerously-bypass-approvals-and-sandbox |
Bez sandboxa, bez zatwierdzeń (tylko CI) |
Uwierzytelnianie w CI
codex exec obsługuje CODEX_API_KEY do nieinteraktywnego uwierzytelniania w środowiskach automatyzacji.
Codex Cloud i zadania w tle [EKSPERYMENTALNE]
Status: Codex Cloud to funkcja eksperymentalna. Interfejsy, ceny i dostępność mogą ulec zmianie. OpenAI zarządza środowiskami chmurowymi — użytkownik nie kontroluje infrastruktury.
Codex Cloud uruchamia zadania asynchronicznie w środowiskach zarządzanych przez OpenAI.4 Zobacz także Akcja GitHub i CI/CD, aby dowiedzieć się, jak zintegrować Codex z potokiem CI.
Jak to działa
- Przesłanie zadania (przez chatgpt.com/codex, integrację ze Slack lub CLI)
- Codex klonuje repozytorium do izolowanego sandboxa w chmurze
- Agent pracuje niezależnie: czyta kod, uruchamia testy, wprowadza zmiany
- Po zakończeniu Codex tworzy PR lub udostępnia diff do przeglądu
- Zastosowanie wyników lokalnie za pomocą
codex apply <TASK_ID>
Dostęp do internetu w chmurze
Dostęp agenta do internetu jest domyślnie wyłączony i konfigurowany per środowisko:
- Wyłączony: Brak dostępu agenta do internetu (domyślnie)
- Włączony: Opcjonalna lista dozwolonych domen + ograniczenia metod HTTP
Allowed domains: pypi.org, npmjs.com, github.com
Allowed methods: GET, HEAD, OPTIONS
Skrypty konfiguracyjne mogą nadal korzystać z internetu do instalacji zależności, nawet gdy dostęp agenta do internetu jest wyłączony.
Integracja ze Slack
Oznaczenie @Codex w kanale lub wątku Slack uruchamia zadanie w chmurze.
Wymagania wstępne: 1. Odpowiedni plan ChatGPT (Plus, Pro, Business, Enterprise lub Edu) 2. Połączone konto GitHub 3. Co najmniej jedno skonfigurowane środowisko chmurowe 4. Zainstalowana aplikacja Slack dla danego workspace
Codex odpowiada linkiem do zadania i publikuje wyniki po zakończeniu.
CLI w chmurze
codex cloud exec --env <ENV_ID> "Fix failing tests" # Start a cloud task
codex cloud status <TASK_ID> # Check task progress
codex cloud diff <TASK_ID> # View task diff
codex cloud list # List recent tasks
codex cloud list --json # JSON output
codex cloud apply <TASK_ID> # Apply from cloud subcommand
codex apply <TASK_ID> # Apply diff (top-level shortcut)
## Aplikacja Codex Desktop
Aplikacja Codex Desktop (tylko macOS, Apple Silicon) zapewnia graficzny interfejs zoptymalizowany do zarządzania wieloma projektami.[^17]
### Instalacja
```bash
codex app # Auto-downloads and installs on first run
Lub pobierz bezpośrednio: Codex.dmg
Kluczowe funkcje
| Funkcja | Opis |
|---|---|
| Równoległe wątki | Jednoczesne uruchamianie wielu zadań w różnych projektach |
| Tryby wątków | Uruchamianie wątków w trybie Local, Worktree lub Cloud |
| Wbudowane narzędzia Git | Przeglądanie zmian, dodawanie komentarzy, stagowanie/cofanie fragmentów, commitowanie/pushowanie, tworzenie PR-ów |
| Zintegrowany terminal | Terminal dla każdego wątku (Cmd+J) |
| Dyktowanie głosowe | Wprowadzanie poleceń głosem (Ctrl+M) |
| Automatyzacje | Planowanie cyklicznych zadań |
| Powiadomienia | Powiadomienia o ukończeniu/zatwierdzeniu, gdy aplikacja działa w tle |
| Zapobieganie uśpieniu | Opcjonalne ustawienie utrzymujące komputer w stanie aktywnym podczas wykonywania zadań |
| Skills + MCP | Współdzielona konfiguracja między aplikacją, CLI i rozszerzeniem IDE |
| Skróty MCP | Szybki dostęp do skrótów narzędzi MCP w kompozytorze (App v26.226)65 |
| @wzmianki w recenzjach | @wzmiankowanie współpracowników w komentarzach do recenzji kodu (App v26.226)65 |
Tryby wątków
Każdy wątek działa w jednym z trzech trybów, wybieranym podczas jego tworzenia:
| Tryb | Izolacja | Dostęp do plików | Najlepszy do |
|---|---|---|---|
| Local | Brak — działa bezpośrednio w katalogu projektu | Pełny odczyt/zapis | Szybkie zadania, eksploracja, niedestrukcyjna praca |
| Worktree | Git worktree — izolowana kopia gałęzi repozytorium | Izolowana kopia | Rozwój funkcji, ryzykowne refaktoryzacje, równoległe eksperymenty |
| Cloud | Zdalny serwer — uruchamiany na infrastrukturze OpenAI | Brak dostępu lokalnego | Długotrwałe zadania, przepływy typu CI, asynchroniczne delegowanie |
Mechanika izolacji worktree:
Gdy uruchamiany jest wątek Worktree, aplikacja desktopowa:
1. Tworzy nowy git worktree (git worktree add) w katalogu tymczasowym
2. Przełącza się na nową gałąź utworzoną z bieżącego HEAD
3. Uruchamia agenta wewnątrz worktree — wszystkie zmiany plików są izolowane
4. Po zakończeniu prezentuje przegląd zmian — użytkownik decyduje, które zmiany scalić
Oznacza to, że wiele wątków Worktree może działać jednocześnie na tym samym repozytorium bez konfliktów. Każdy otrzymuje własną gałąź i katalog roboczy.
Automatyzacje
Automatyzacje działają lokalnie w aplikacji, więc aplikacja musi być uruchomiona, a projekt dostępny na dysku:
- W repozytoriach Git automatyzacje korzystają z dedykowanych worktree w tle (izolowanych od katalogu roboczego)
- W projektach bez Git uruchomienia wykonywane są bezpośrednio w katalogu projektu
- Automatyzacje korzystają z domyślnych ustawień sandbox
Konfiguracja automatyzacji: 1. Otwórz projekt w aplikacji desktopowej 2. Kliknij zakładkę Automations na pasku bocznym 3. Zdefiniuj wyzwalacz (harmonogram, webhook lub ręczny) 4. Napisz prompt i wybierz tryb wątku 5. Automatyzacje uruchamiają się zgodnie z harmonogramem i kolejkują wyniki do przeglądu
Przykładowe zastosowania: - Klasyfikacja zgłoszeń: Automatyczne kategoryzowanie i priorytetyzacja nowych zgłoszeń - Monitorowanie CI: Obserwowanie błędów kompilacji i sugerowanie poprawek - Reakcja na alerty: Reagowanie na alerty monitoringu analizą diagnostyczną - Aktualizacje zależności: Sprawdzanie i stosowanie poprawek bezpieczeństwa
Wyniki pojawiają się w kolejce do przeglądu przez człowieka.
Wsparcie dla systemu Windows
Wsparcie dla systemu Windows jest planowane. Aktualne informacje można znaleźć na stronie Codex Desktop App lub w wydaniach GitHub.18
GitHub Action i CI/CD
Oficjalna GitHub Action integruje Codex z potokiem CI/CD.19
Podstawowe użycie
# .github/workflows/codex.yml
name: Codex
on:
pull_request:
types: [opened]
jobs:
codex:
runs-on: ubuntu-latest
outputs:
final_message: ${{ steps.run_codex.outputs.final-message }}
steps:
- uses: actions/checkout@v5
- name: Run Codex
id: run_codex
uses: openai/codex-action@v1
with:
openai-api-key: ${{ secrets.OPENAI_API_KEY }}
prompt-file: .github/codex/prompts/review.md
sandbox: workspace-write
safety-strategy: drop-sudo
Opcje konfiguracji
| Parametr | Przeznaczenie |
|---|---|
openai-api-key |
Klucz API do konfiguracji proxy/uwierzytelniania |
responses-api-endpoint |
Nadpisanie punktu końcowego (np. URL Azure Responses) |
prompt / prompt-file |
Instrukcje zadania (wymagany jeden z nich) |
working-directory |
Katalog przekazywany do codex exec --cd |
sandbox |
workspace-write / read-only / danger-full-access |
codex-args |
Dodatkowe flagi CLI (tablica JSON lub ciąg powłoki) |
output-schema / output-schema-file |
Schemat strukturalnego wyjścia dla --output-schema |
model / effort |
Konfiguracja agenta |
output-file |
Zapis ostatecznej wiadomości na dysk |
codex-version |
Przypięcie wersji CLI |
codex-home |
Niestandardowy katalog domowy Codex |
allow-users / allow-bots |
Kontrola listy dozwolonych wyzwalaczy |
safety-strategy / codex-user |
Zachowanie redukcji uprawnień i wybór użytkownika |
Wyjście: final-message, końcowy tekst odpowiedzi Codex dla kolejnych kroków/zadań.
Strategie bezpieczeństwa
| Strategia | Opis |
|---|---|
drop-sudo (domyślna) |
Linux/macOS; usuwa uprawnienia sudo po kroku akcji |
unprivileged-user |
Uruchamianie Codex jako wcześniej utworzony użytkownik z niskimi uprawnieniami |
read-only |
Sandbox tylko do odczytu (ryzyko uprawnień runnera/użytkownika nadal istnieje) |
unsafe |
Brak redukcji uprawnień; wymagane na runnerach Windows |
Kontrola dostępu
with:
allow-users: "admin,maintainer" # Limit who can trigger
allow-bots: false # Block bot-triggered runs
Domyślnie: tylko współpracownicy z uprawnieniami zapisu mogą wyzwalać przepływy Codex.
Codex SDK
TypeScript SDK umożliwia osadzenie możliwości agenta Codex w niestandardowych aplikacjach.20
Instalacja
npm install @openai/codex-sdk
Podstawowe użycie
import { Codex } from "@openai/codex-sdk";
const codex = new Codex();
const thread = codex.startThread();
// Multi-turn conversation
const turn1 = await thread.run("Diagnose CI failures and propose a fix");
console.log(turn1.finalResponse);
const turn2 = await thread.run("Implement the fix and add tests");
console.log(turn2.items);
// Resume a previous session
const resumed = codex.resumeThread("<thread-id>");
await resumed.run("Continue from previous work");
Zaawansowane funkcje SDK
runStreamed(...): Asynchroniczny strumień zdarzeń z aktualizacjami pośrednimioutputSchema: Wymuszenie wyjścia w kształcie JSON- Wejście multimodalne: Przekazywanie tekstu + lokalnych obrazów (
{ type: "local_image", path: "..." })
Konfiguracja wątku i klienta
// Custom working directory, skip git check
const thread = codex.startThread({
workingDirectory: "/path/to/project",
skipGitRepoCheck: true,
});
// Custom environment and config overrides
const codex = new Codex({
env: { CODEX_API_KEY: process.env.MY_KEY },
config: { model: "gpt-5.2-codex" },
});
Sesje są przechowywane w ~/.codex/sessions.
Środowisko uruchomieniowe: Node.js 18+.
Optymalizacja wydajności
Zarządzanie kontekstem
Flagowe modele mają okna wejściowe o pojemności 272 tys. tokenów (128 tys. wyjściowych, 400 tys. całkowitego budżetu), ale zapełniają się szybciej niż można by przypuszczać. Zarządzanie kontekstem wymaga proaktywnego podejścia:
- Regularne używanie
/compact: Podsumowuje historię konwersacji, zwalniając tokeny - Dostarczanie lokalnej dokumentacji: Wysokiej jakości
AGENTS.mdi lokalna dokumentacja zmniejszają narzut eksploracji (który zużywa kontekst) - Używanie
@do dołączania konkretnych plików: Bezpośrednie odwoływanie się do plików zamiast proszenia Codex o ich wyszukanie - Precyzyjne prompty: Prompty o wąskim zakresie z konkretnymi plikami zużywają mniej kontekstu niż otwarta eksploracja
Efektywność tokenów
| Technika | Wpływ |
|---|---|
Ustawienie model_reasoning_summary = "none" |
Redukcja tokenów wyjściowych o ~20% |
Użycie model_verbosity = "low" |
Krótsze wyjaśnienia, więcej działania |
| Użycie modeli mini do prostych zadań | Znacznie niższy koszt za wiadomość |
| Podział złożonych zadań na osobne sesje | Lepsza efektywność tokenów w ramach sesji |
| Użycie profili do przełączania ustawień według zadania | Unikanie płacenia za wysokie reasoning przy rutynowej pracy |
Optymalizacja szybkości
gpt-5.3-codex-spark: Wariant o niższym opóźnieniu do interaktywnego programowania w parze--profile fast: Wstępnie skonfigurowany model mini z niskim poziomem reasoning- Równoległe wykonywanie narzędzi: Codex uruchamia niezależne odczyty/sprawdzenia jednocześnie — prompty należy formułować tak, aby to umożliwić
- Pętle zorientowane na wynik: Proszenie o „zaimplementuj, przetestuj, napraw, zatrzymaj się gdy testy przechodzą” zamiast instrukcji krok po kroku
Jak debugować problemy?
Typowe problemy i rozwiązania
| Problem | Przyczyna | Rozwiązanie |
|---|---|---|
| Pętla „Re-connecting” | Wiele instancji Codex | Zakończ wszystkie procesy, odczekaj 60 s, uruchom ponownie pojedynczą instancję |
| Błędy autoryzacji 401 | Nieaktualne dane uwierzytelniające | rm ~/.codex/auth.json && codex login |
| Sieć zablokowana w sandboxie | Domyślne zachowanie | -c 'sandbox_workspace_write.network_access=true' |
| Rozłączenia WSL2 | Uszkodzenie stanu WSL | wsl --shutdown w PowerShell, odczekaj 1 min, uruchom ponownie |
| Niepowodzenia nakładania łatek | Niezgodność końców linii | Znormalizuj do LF, podaj dokładną treść pliku |
| Niepowodzenie kompaktowania kontekstu | Zbyt duży kontekst | Zmniejsz reasoning effort, podziel na mniejsze zadania |
| Nieoczekiwana zmiana modelu | Nadpisanie w config.toml | Uruchom /config, aby sprawdzić efektywne ustawienia i ich źródła |
| Tryb planowania umożliwia mutacje | Znany błąd | Issue #11115 |
| Zapominanie instrukcji z AGENTS.md | Limity kontekstu | Instrukcje powinny być zwięzłe; używaj plików skill do szczegółowych procedur |
| Zawieszanie się w trybie Read Only | Znany problem | Discussion #7380 |
Referencja komunikatów błędów
| Komunikat błędu | Znaczenie | Rozwiązanie |
|---|---|---|
Error: EACCES permission denied |
Sandbox zablokował operację na pliku | Sprawdź tryb sandbox; użyj workspace-write, jeśli Codex musi edytować pliki |
Error: rate limit exceeded |
Osiągnięto limit zapytań API | Odczekaj i spróbuj ponownie; zmniejsz model_reasoning_effort lub przełącz na lżejszy model |
Error: context length exceeded |
Konwersacja przekroczyła 272K tokenów wejściowych | Użyj /compact, aby podsumować, lub rozpocznij nową sesję poleceniem /new |
Error: MCP server failed to start |
Proces serwera MCP uległ awarii lub przekroczył limit czasu | Sprawdź codex mcp get <name> w konfiguracji; zwiększ startup_timeout_sec |
Error: authentication required |
Brak prawidłowego klucza lub sesji API | Uruchom codex login lub ustaw CODEX_API_KEY |
Error: sandbox execution failed |
Polecenie nie powiodło się wewnątrz sandboxa | Sprawdź składnię polecenia; upewnij się, że wymagane narzędzia są dostępne w środowisku sandbox |
WARN: skill not found |
Wskazany skill nie istnieje w oczekiwanej ścieżce | Sprawdź listę /skills; zweryfikuj lokalizację folderu skill |
Error: wire format mismatch |
Nieprawidłowe ustawienie wire_api dla dostawcy |
Użyj wire_api = "responses" dla endpointów OpenAI (zobacz Dostawcy modeli niestandardowych) |
Narzędzia diagnostyczne
codex --version # Check CLI version
codex login status # Verify authentication
codex mcp list # Check MCP server status
codex debug app-server --help # Debug app server issues
Diagnostyka w sesji TUI:
/status # Token/session overview
/config # Inspect effective config values and sources
/compact # Summarize history to reclaim context
Uwaga:
codex --verbosenie jest prawidłową flagą najwyższego poziomu. Należy korzystać z powyższych podpoleceń debug i diagnostyki TUI.
Czysta reinstalacja
npm uninstall -g @openai/codex && npm install -g @openai/codex@latest
Tryb debugowania
codex debug app-server send-message-v2 # Test app-server client
Zgłaszanie problemów
/feedback # Send logs to Codex maintainers (in TUI)
Lub zgłoś problem na stronie github.com/openai/codex/issues.1
Wdrożenie w przedsiębiorstwie
Kontrole administracyjne (requirements.toml)
Administratorzy egzekwują politykę korporacyjną za pomocą pliku requirements.toml — wymuszanego przez administratora pliku konfiguracyjnego, który ogranicza ustawienia wrażliwe z punktu widzenia bezpieczeństwa, których użytkownicy nie mogą nadpisać:22
# /etc/codex/requirements.toml
# Restrict which approval policies users can select
allowed_approval_policies = ["untrusted", "on-request", "on-failure"]
# Limit available sandbox modes
allowed_sandbox_modes = ["read-only", "workspace-write"]
# Control web search capabilities
allowed_web_search_modes = ["cached"]
# Allowlist MCP servers by identity (both name and identity must match)
[mcp_servers.approved-server]
identity = { command = "npx approved-mcp-server" }
# Admin-enforced command restrictions
[[rules.prefix_rules]]
pattern = [{ token = "rm" }, { any_of = ["-rf", "-fr"] }]
decision = "forbidden"
justification = "Recursive force-delete is prohibited by IT policy"
[[rules.prefix_rules]]
pattern = [{ token = "sudo" }]
decision = "prompt"
justification = "Elevated commands require explicit approval"
W odróżnieniu od
config.tomlna poziomie użytkownika, który ustawia preferencje,requirements.tomljest twardą warstwą ograniczeń, która limituje wartości dostępne do wyboru przez użytkowników — nie można jej nadpisać. Reguły administracyjne w requirements mogą jedynie pytać o zgodę lub zabraniać (nigdy nie zezwalają cicho).
Konfiguracja macOS MDM
Dystrybucja przez MDM z wykorzystaniem domeny preferencji com.openai.codex.22 Codex obsługuje standardowe payloady macOS MDM (Jamf Pro, Fleet, Kandji itp.). TOML należy zakodować w base64 bez zawijania linii:
| Klucz | Przeznaczenie |
|---|---|
config_toml_base64 |
Zakodowane w base64 zarządzane wartości domyślne (wartości początkowe, które użytkownicy mogą zmieniać) |
requirements_toml_base64 |
Zakodowane w base64 wymagania administracyjne (użytkownicy nie mogą ich nadpisać) |
Priorytet (od najwyższego do najniższego):
- Zarządzane preferencje macOS (MDM)
- Wymagania pobierane z chmury (ChatGPT Business / Enterprise)
/etc/codex/requirements.toml(lokalny system plików)
Wymagania z chmury wypełniają jedynie nieustawione pola, więc warstwy zarządzane o wyższym priorytecie zawsze mają pierwszeństwo. Wymagania z chmury są dostarczane na zasadzie best-effort; jeśli pobranie nie powiedzie się lub przekroczy limit czasu, Codex kontynuuje pracę bez warstwy chmurowej.
Integracja z OpenTelemetry
Codex obsługuje propagację kontekstu śledzenia OpenTelemetry ze standardowych zmiennych środowiskowych OTel do wywołań API OpenAI. Należy ustawić standardowe zmienne środowiskowe przed uruchomieniem Codex:
# Point Codex at your OTel collector
export OTEL_EXPORTER_OTLP_ENDPOINT="https://otel-collector.internal:4318"
export OTEL_SERVICE_NAME="codex-cli"
export OTEL_RESOURCE_ATTRIBUTES="team=platform,env=production"
# Launch Codex — trace context propagates to all OpenAI API calls
codex
- Standardowe zmienne środowiskowe
OTEL_*są obsługiwane (endpoint, nazwa usługi, atrybuty zasobów) - Kontekst śledzenia propaguje przez Codex do wywołań API, umożliwiając pełną obserwowalność end-to-end
- Atrybuty zasobów pozwalają tagować ślady według zespołu, środowiska lub projektu
- Przy włączaniu logowania promptów/narzędzi należy pamiętać o wymaganiach dotyczących prywatności — ślady mogą zawierać fragmenty kodu
Dostęp korporacyjny
- ChatGPT Business / Enterprise / Edu: Kontrola dostępu przez administratora organizacji, z automatycznie stosowanymi wymaganiami pobieranymi z chmury. Obsługa SSO przez SAML/OIDC za pośrednictwem dostawcy tożsamości (Okta, Entra ID itp.)
- API: Standardowa autoryzacja API, rozliczenia oraz kontrole organizacji/projektu. OpenAI publikuje raporty SOC 2 Type II i SOC 3; BAA zgodne z HIPAA dostępne dla poziomu Enterprise
- Codex SDK: Osadzanie w wewnętrznych narzędziach i przepływach pracy
- Egzekwowanie polityki na skalę: Dystrybucja
requirements_toml_base64przez MDM lub/etc/codex/requirements.tomlna poziomie systemu plików
Obsługa danych i zgodność z regulacjami: - Dane wejściowe/wyjściowe API nie są wykorzystywane do treningu na warunkach Business/Enterprise/API OpenAI - W kwestii rezydencji danych: ruch API OpenAI jest domyślnie kierowany przez infrastrukturę zlokalizowaną w USA; w przypadku wymogów rezydencji danych w UE należy skontaktować się z zespołem Enterprise sales OpenAI - Transkrypty sesji są przechowywane lokalnie; tylko wywołania API opuszczają maszynę - ChatGPT Enterprise obsługuje ramy zgodności, w tym SOC 2, RODO i CCPA
Strategia wdrożenia
Zalecane fazowe wdrożenie dla organizacji:
- Pilotaż (tydzień 1–2): Wdrożenie dla 3–5 starszych inżynierów z
requirements.tomlwymuszającym tryb sandboxuntrustedi wyszukiwaniecached. Zbieranie opinii na temat wzorców AGENTS.md i potrzeb dotyczących serwerów MCP. - Rozszerzenie na zespół (tydzień 3–4): Wdrożenie dla całego zespołu. Dystrybucja standardowego
config.tomlzespołowego przez MDM lub repozytorium. Włączenie sandboxaworkspace-writedla zaufanych repozytoriów. - Integracja z CI (tydzień 5–6): Dodanie
codex-actiondo potoków CI/CD w celu automatycznej recenzji PR i generowania testów. Użycie--ephemeraldla przewidywalnych kosztów. - Wdrożenie organizacyjne (miesiąc 2+): Dystrybucja przez MDM z
requirements.tomlwymuszającym zatwierdzone serwery MCP, polityki sandbox i listy dozwolonych modeli.
Wzorce audytu
Śledzenie użycia Codex i egzekwowanie zgodności:
- Ślady OpenTelemetry: Monitorowanie wolumenu wywołań API, zużycia tokenów i opóźnień w podziale na zespoły
- Trwałość sesji: Audyt
~/.codex/sessions/na potrzeby przeglądu zgodności (wyłączenie za pomocą--ephemeralw kontekstach wrażliwych) - Egzekwowanie tożsamości MCP:
requirements.tomlrejestruje zablokowane próby serwerów — przegląd pod kątem nieautoryzowanego użycia narzędzi - Ślad audytu Git: Wszystkie zmiany plików dokonane przez Codex przechodzą przez standardowy git — weryfikacja przez historię gałęzi i różnice w PR
Najlepsze praktyki i antywzorce
Wzorce promptowania
- Prompty oparte na ograniczeniach: Zacznij od granic. „NIE zmieniaj kontraktów API. Refaktoryzuj tylko wewnętrzną implementację.”
- Ustrukturyzowane kroki reprodukcji: Ponumerowane kroki dają lepsze poprawki błędów niż niejasne opisy
- Żądania weryfikacji: Zakończ promptem „Uruchom lint + najmniejszy odpowiedni zestaw testów. Podaj polecenia i wyniki.”
- Odniesienia do plików: Użyj
@filename, aby dołączyć konkretne pliki do kontekstu - Pętle zorientowane na wynik: „Zaimplementuj, uruchom testy, napraw błędy, zatrzymaj się dopiero gdy wszystkie testy przejdą.” Codex iteruje aż do zakończenia
Filozofia testowania
Społeczność konwerguje w kierunku współpracy z AI opartej na testach:23
- Definiuj testy z góry jako sygnały ukończenia
- Pozwól Codex iterować aż testy przejdą (red → green → refactor)
- Stosuj wzorce programowania Tiger Style
- Podawaj dokładny tekst pliku przy żądaniu łatek. Codex stosuje ścisłe dopasowanie, a nie rozmyte łatanie oparte na AST
Najlepsze praktyki zarządzania kontekstem
- Dostarczaj wysokiej jakości lokalną dokumentację zamiast polegać na wyszukiwaniu w sieci
- Utrzymuj ustrukturyzowany markdown ze spisami treści i plikami postępu („stopniowe ujawnianie”)
- Normalizuj końce linii (LF vs CRLF) we wszystkich śledzonych plikach, aby zapobiec błędom łatek
- Utrzymuj
AGENTS.mdzwięzłe, ponieważ długie instrukcje są wypychane poza kontekst
Przepływ pracy z Git
- Zawsze twórz nową gałąź przed uruchomieniem Codex na nieznanych repozytoriach
- Używaj przepływów opartych na łatkach (
git diff/git apply) zamiast bezpośrednich edycji - Przeglądaj sugestie Codex jak code review PR-ów
- Używaj
/diff, aby zweryfikować zmiany przed zatwierdzeniem
Umiejętności i prompty społeczności
Repozytorium feiskyer/codex-settings udostępnia konfiguracje utrzymywane przez społeczność:24
Prompty wielokrotnego użytku (w ~/.codex/prompts/):
- deep-reflector: Wyciąganie wniosków z sesji deweloperskich
- github-issue-fixer [issue-number]: Systematyczna analiza błędów i tworzenie PR
- github-pr-reviewer [pr-number]: Przepływy pracy code review
- ui-engineer [requirements]: Profesjonalny rozwój frontendu
Umiejętności społeczności:
- claude-skill: Przekazywanie zadań do Claude Code z trybami uprawnień
- autonomous-skill: Automatyzacja zadań w wielu sesjach ze śledzeniem postępu
- deep-research: Równoległa orkiestracja podzadań
- kiro-skill: Pipeline: wymagania → projekt → zadania → wykonanie
Antywzorce
Częste błędy, które marnują tokeny, dają słabe wyniki lub tworzą frustrujące przepływy pracy.
Antywzorce kosztowe
| Antywzorzec | Dlaczego nie działa | Rozwiązanie |
|---|---|---|
Używanie xhigh reasoning do wszystkiego |
3-5x koszt tokenów przy malejących zyskach na prostych zadaniach | Używaj domyślnie medium; rezerwuj xhigh dla decyzji architektonicznych obejmujących wiele plików |
Nieużywanie /compact |
Kontekst zapełnia się do 272K, jakość odpowiedzi spada | Kompaktuj po każdym ważnym kamieniu milowym lub gdy /status pokazuje >60% użycia |
| Uruchamianie flagowego modelu w CI | Kosztowne dla rutynowych sprawdzeń | Utwórz profil ci z gpt-5.1-codex-mini i reasoning low |
Antywzorce kontekstu
| Antywzorzec | Dlaczego nie działa | Rozwiązanie |
|---|---|---|
| Otwarte prompty „zbadaj wszystko” | Codex czyta dziesiątki plików, zużywając kontekst na nieistotny kod | Ogranicz zakres do konkretnych plików: „Sprawdź src/auth/login.py i tests/test_auth.py“ |
Brak AGENTS.md w projekcie |
Codex marnuje tury na odkrywanie struktury projektu | Dodaj 20-liniowy AGENTS.md z kluczowymi ścieżkami, konwencjami i poleceniami testowymi |
| Dołączanie całych katalogów | Zalewa kontekst nieistotnymi plikami | Używaj @filename, aby dołączyć tylko pliki potrzebne Codex |
Antywzorce przepływu pracy
| Antywzorzec | Dlaczego nie działa | Rozwiązanie |
|---|---|---|
Praca bezpośrednio na main |
Brak siatki bezpieczeństwa; ryzykowne edycje trudno cofnąć | Zawsze twórz gałąź feature przed uruchomieniem Codex |
Pomijanie /diff przed zatwierdzeniem |
Codex mógł wprowadzić niezamierzone zmiany | Przeglądaj /diff po każdym zadaniu, przed każdym zatwierdzeniem |
| Ignorowanie wyników testów | Codex iteruje mimo błędów, jeśli ich nie wskażesz | Używaj w prompcie „uruchom testy i zatrzymaj się dopiero gdy wszystkie przejdą” |
| Nieforkowanie konwersacji | Jeden błędny krok zanieczyszcza cały kontekst | /fork przed ryzykownymi eksploracjami; odrzucaj złe gałęzie |
Antywzorce promptowania
| Antywzorzec | Dlaczego nie działa | Rozwiązanie |
|---|---|---|
| „Napraw błąd” (bez kontekstu) | Codex zgaduje który błąd, czyta wszystko | „Napraw TypeError w src/api/handler.py:42 — user.name jest None gdy użytkownik jest nieuwierzytelniony” |
| Wiele zadań w jednej wiadomości | Codex łączy zadania, pomija niektóre | Jedno zadanie na wiadomość; używaj trybu sterowania (Tab) do kolejkowania kontynuacji |
| Powtarzanie kontekstu w każdej wiadomości | Marnuje tokeny na zduplikowane informacje | Używaj /m_update dla trwałych faktów; odwołuj się do wcześniejszego kontekstu |
Przepisy na przepływy pracy
Kompleksowe wzorce dla typowych scenariuszy deweloperskich.
Przepis 1: Konfiguracja nowego projektu
mkdir my-app && cd my-app && git init
codex
> Create a FastAPI project with: main.py, requirements.txt, Dockerfile,
basic health endpoint, and a README. Use async throughout.
> /init
Przejrzyj wygenerowany AGENTS.md, edytuj zgodnie ze swoimi konwencjami, a następnie:
> Run the health endpoint test and confirm it passes
Przepis 2: Codzienny przepływ pracy deweloperskiej
cd ~/project && git checkout -b feature/user-auth
codex
> @src/models/user.py @src/api/auth.py
Add password reset functionality. Requirements:
1. POST /api/auth/reset-request (email → sends token)
2. POST /api/auth/reset-confirm (token + new password)
3. Tests for both endpoints
Run tests when done.
Przejrzyj za pomocą /diff, a następnie zatwierdź.
Przepis 3: Złożona refaktoryzacja z trybem planowania
codex
> /plan Migrate the database layer from raw SQL to SQLAlchemy ORM.
Constraints: don't change any API contracts, keep all existing tests passing.
Przejrzyj plan. Zatwierdź lub skoryguj:
[Tab] Also add a migration script using Alembic
Po wykonaniu przez Codex zweryfikuj:
> Run the full test suite and report results
> /diff
Przepis 4: Przegląd PR za pomocą codex exec
codex exec --model gpt-5.1-codex-mini \
"Review the changes in this branch against main. \
Flag security issues, missed edge cases, and style violations. \
Format as a markdown checklist." \
-o review.md
Przepis 5: Debugowanie z zadaniami w chmurze [EKSPERYMENTALNE]
codex cloud exec --env my-env "Diagnose why the /api/orders endpoint returns 500 \
for orders with > 100 line items. Check the serializer, database query, \
and pagination logic. Propose a fix with tests."
Sprawdź postęp później:
codex cloud status <TASK_ID>
codex cloud diff <TASK_ID>
Zastosuj poprawkę lokalnie po zakończeniu:
codex apply <TASK_ID>
Przewodnik po migracji
Z Claude Code
| Koncept Claude Code | Odpowiednik w Codex |
|---|---|
CLAUDE.md |
AGENTS.md (otwarty standard) |
.claude/settings.json |
.codex/config.toml (format TOML) |
--print flag |
podpolecenie codex exec |
--dangerously-skip-permissions |
--dangerously-bypass-approvals-and-sandbox |
| Hooks (12+ zdarzeń) | Hooks (AfterAgent, AfterToolUse — wczesna faza; v0.99.0+) |
| Subagenty (narzędzie Task) | Sub-agenty (wewnętrzne, maks. 6; brak odpowiednika narzędzia Task dla użytkownika) |
/compact |
/compact (identyczne) |
/cost |
/status (pokazuje zużycie tokenów) |
| Model: Opus/Sonnet/Haiku | Model: gpt-5.3-codex / gpt-5.3-codex-spark / gpt-5.2-codex / gpt-5.1-codex-mini (Codex korzysta wyłącznie z rodziny modeli GPT-5.x firmy OpenAI) |
claude --resume |
codex resume |
| Reguły uprawnień | Tryby sandbox + polityki zatwierdzania |
| Konfiguracja MCP w settings.json | Konfiguracja MCP w config.toml |
Kluczowe różnice do zrozumienia:
- Sandbox działa na poziomie systemu operacyjnego: Codex wykorzystuje Seatbelt/Landlock, a nie kontenery. Ograniczenia działają na poziomie jądra systemu, poniżej warstwy aplikacji.
- Hooks są we wczesnej fazie: Codex dodał hooks w v0.99.0 (AfterAgent) i v0.100.0 (AfterToolUse), ale system jest na wczesnym etapie w porównaniu z 12+ zdarzeniami cyklu życia w Claude Code. W przypadku wzorców automatyzacji, które nie są jeszcze obsługiwane, należy korzystać z instrukcji w AGENTS.md lub skills.
- Sub-agenty są wewnętrzne, ale teraz konfigurowalne: Codex posiada mechanizm sub-agentów (maks. 6 równoległych, zmniejszono z 12 w v0.91.0). Od wersji v0.104.0 role wielu agentów można dostosowywać poprzez konfigurację, umożliwiając nazwane role agentów z odrębnymi profilami.49 Wersja v0.105.0 dodała
spawn_agents_on_csvdo rozgałęziania pracy na wiersze z śledzeniem postępu i szacowanym czasem ukończenia.63 Codex nadal nie posiada odpowiednika jawnego narzędzia Task z Claude Code do delegowania zadań przez użytkownika — w przypadku wzorców delegowania należy korzystać z zadań w chmurze lub orkiestracji SDK. - AGENTS.md jest wielonarzędziowy: AGENTS.md działa w Cursor, Copilot, Amp, Jules, Gemini CLI oraz ponad 60 000 projektów open source. CLAUDE.md jest wyłącznie dla Claude.
- Profile zastępują ręczne przełączanie: Zamiast zmieniać flagi przy każdym uruchomieniu, można zdefiniować profile w config.toml.
Z GitHub Copilot
| Koncept Copilot | Odpowiednik w Codex |
|---|---|
| Copilot CLI (agentowy terminal) | Interaktywny CLI lub aplikacja desktopowa |
| Wyspecjalizowane agenty (Explore, Plan) | Skills + tryb planowania + tryb sterowania |
copilot-instructions.md / AGENTS.md |
AGENTS.md (ten sam standard) |
| Obsługa MCP | Obsługa MCP (STDIO + HTTP) |
| ACP (Agent Client Protocol) | Hooks (AfterAgent, AfterToolUse) |
| Copilot SDK | Codex SDK (TypeScript) |
| Przepływy pracy agenta kodowania | Agent Codex z kontrolą sandbox/zatwierdzania + zadania w chmurze |
Co zyskujesz:
- Sandbox na poziomie systemu operacyjnego (Seatbelt/Landlock — wymuszany przez jądro systemu vs oparty na kontenerach)
- Delegowanie zadań w chmurze za pomocą codex apply
- Profile konfiguracji do przełączania przepływów pracy
- Aplikacja desktopowa z izolacją worktree
Z Cursor
| Koncept Cursor | Odpowiednik w Codex |
|---|---|
Reguły projektu (.cursor/rules) / AGENTS.md |
AGENTS.md + profile/konfiguracja |
| Przepływy pracy agenta czatu/kompozytora | Interaktywny CLI lub aplikacja desktopowa |
Odwołania do plików @ |
Odwołania do plików @ (identyczne) |
| Zastosuj/edytuj + przegląd | Wbudowane łatanie i przegląd różnic |
Skrócona karta referencyjna
╔═══════════════════════════════════════════════════════════════╗
║ CODEX CLI QUICK REFERENCE ║
╠═══════════════════════════════════════════════════════════════╣
║ ║
║ LAUNCH ║
║ codex Interactive TUI ║
║ codex "prompt" TUI with initial prompt ║
║ codex exec "prompt" Non-interactive mode ║
║ codex app Desktop app ║
║ codex resume Resume previous session ║
║ codex fork Fork a session ║
║ ║
║ FLAGS ║
║ -m, --model <model> Select model ║
║ -p, --profile <name> Load config profile ║
║ -s, --sandbox <mode> Sandbox mode ║
║ -C, --cd <dir> Working directory ║
║ -i, --image <file> Attach image(s) ║
║ -c, --config <key=value> Override config ║
║ --full-auto workspace-write + on-request ║
║ --oss Use local models (Ollama) ║
║ --search Enable live web search ║
║ ║
║ SLASH COMMANDS (in TUI) ║
║ /compact Free tokens /diff Git diff ║
║ /review Code review /plan Plan mode ║
║ /model Switch model /status Session info ║
║ /fork Fork thread /init AGENTS.md scaffold ║
║ /mcp MCP tools /skills Invoke skills ║
║ /ps Background /personality Style ║
║ /permissions Approval mode /statusline Footer config ║
║ /copy Copy last response to clipboard ║
║ /clear Clear screen /theme Syntax highlighting ║
║ /experimental Toggle experimental features (js_repl) ║
║ ║
║ TUI SHORTCUTS ║
║ @ Fuzzy file search ║
║ !command Run shell command ║
║ Ctrl+G External editor ║
║ Ctrl+L Clear screen ║
║ Enter Inject instructions (while running) ║
║ Esc Esc Edit previous messages ║
║ ║
║ EXEC MODE (CI/CD) ║
║ codex exec --full-auto "task" Sandboxed auto ║
║ codex exec --json -o out.txt "task" JSON + file output ║
║ codex exec --output-schema s.json Structured output ║
║ codex exec resume --last "continue" Resume session ║
║ ║
║ MCP MANAGEMENT [EXPERIMENTAL] ║
║ codex mcp add <name> -- <cmd> Add STDIO server ║
║ codex mcp add <name> --url <u> Add HTTP server ║
║ codex mcp list List servers ║
║ codex mcp login <name> OAuth flow ║
║ codex mcp remove <name> Delete server ║
║ ║
║ CLOUD [EXPERIMENTAL] ║
║ codex cloud exec --env <ID> Start cloud task ║
║ codex cloud status <ID> Check task progress ║
║ codex cloud diff <ID> View task diff ║
║ codex cloud list List tasks ║
║ codex apply <TASK_ID> Apply cloud diff locally ║
║ ║
║ CONFIG FILES ║
║ ~/.codex/config.toml User config ║
║ .codex/config.toml Project config ║
║ ~/.codex/AGENTS.md Global instructions ║
║ AGENTS.md Project instructions ║
║ requirements.toml Enterprise policy constraints ║
║ ║
║ SANDBOX MODES ║
║ read-only Read files only, no mutations ║
║ workspace-write Read/write in workspace + /tmp ║
║ danger-full-access Full machine access ║
║ ║
║ APPROVAL POLICIES ║
║ untrusted Prompt for all mutations ║
║ on-failure Auto-run until failure ║
║ on-request Prompt for boundary violations ║
║ never No prompts ║
║ ║
║ MODELS (Feb 2026, v0.106.0) ║
║ gpt-5.3-codex Default flagship (272K in / 400K) ║
║ gpt-5.3-codex-spark Interactive, lower latency (128K) ║
║ gpt-5.2-codex Long-horizon refactors (272K / 400K) ║
║ gpt-5.1-codex-mini Quick tasks, cost-efficient (272K/400K)║
║ ║
╚═══════════════════════════════════════════════════════════════╝
Historia zmian
| Data | Wersja | Co się zmieniło | Źródło |
|---|---|---|---|
| 2026-03-02 | Guide v2.9 | Aktualizacja do CLI v0.107.0: rozgałęzianie wątków na pod-agenty, wybór urządzenia w sesjach głosowych w czasie rzeczywistym, konfigurowalna pamięć z codex debug clear-memories, multimodalny wynik narzędzi niestandardowych. Dodano App v26.226: skróty MCP w edytorze, @mentions w komentarzach do recenzji. |
64 65 |
| 2026-03-02 | CLI 0.107.0 | Rozgałęzianie wątków na pod-agenty, sesje głosowe w czasie rzeczywistym z wyborem mikrofonu/głośnika, multimodalny wynik narzędzi niestandardowych, konfigurowalna pamięć + codex debug clear-memories, poprawki błędów |
64 |
| 2026-02-28 | Guide v2.8 | Aktualizacja do CLI v0.106.0: dodano skrypt bezpośredniej instalacji, poprawka obejścia sandboxa przez zsh-fork, limit wejściowy ~1M znaków, system plików /dev w Linuksie, elastyczne kontrole zatwierdzeń, JS REPL przeniesiony do /experimental (Node 22.22.0+), zapominanie pamięci oparte na diffach, podświetlanie składni w TUI + /theme, /copy, /clear, Ctrl-L, transkrypcja głosu, spawn_agents_on_csv, request_user_input w trybie Default. Dodano wpisy zmian dla v0.105.0 i v0.106.0. | 62 63 |
| 2026-02-26 | CLI 0.106.0 | Skrypt bezpośredniej instalacji, js_repl przeniesiony do /experimental z minimalnym Node 22.22.0, request_user_input w trybie Default, 5.3-codex widoczny na liście modeli CLI dla użytkowników API, zapominanie pamięci oparte na diffach z wyborem uwzględniającym wykorzystanie, poprawka obejścia sandboxa przez zsh-fork, limit wejściowy ~1M znaków, ulepszone renderowanie linków do plików w TUI, poprawka obsługi Ctrl-C dla pod-agentów | 62 |
| 2026-02-25 | CLI 0.105.0 | TUI podświetla składnię w blokach kodu i diffach z selektorem /theme, transkrypcja głosu (dyktowanie spacją, eksperymentalne), spawn_agents_on_csv do wieloagentowego rozgałęziania z postępem/szacowanym czasem, polecenia /copy /clear Ctrl-L, elastyczne kontrole zatwierdzeń (dodatkowe uprawnienia sandboxa, granularne odrzucanie), klikalne zawijane linki, system plików /dev w Linuksie dla poleceń w sandboxie, ulepszenia raportowania błędów js_repl | 63 |
| 2026-02-24 | Guide v2.7 | Rozszerzenie sekcji Dostęp/Cennik: dodano poziom Free/Go promocyjny, podwójne limity szybkości dla planów płatnych, limity wykorzystania per plan (okno 5-godzinne), tabela kosztów kredytów. Dodano klucz konfiguracyjny allow_login_shell. |
53 |
| 2026-02-22 | Guide v2.6 | Dodano brakujące klucze konfiguracyjne: features.multi_agent, features.apply_patch_freeform, features.search_tool, agents.* (role wieloagentowe), model_context_window, model_auto_compact_token_limit, mcp_oauth_callback_port, mcp_oauth_credentials_store, notify. Dodano wpis zmian App v26.217. |
52 |
| 2026-02-19 | Guide v2.5 | Zaktualizowano odniesienia do wersji CLI 0.104.0, dodano wpisy zmian v0.103.0 i v0.104.0, dodano obsługę proxy WS_PROXY/WSS_PROXY, odrębne identyfikatory zatwierdzeń, atrybucja współautora commitów, usunięto flagę funkcji remote_models i zastąpiono ją command_attribution. |
— |
| 2026-02-18 | CLI 0.104.0 | Obsługa proxy WebSocket WS_PROXY/WSS_PROXY, odrębne identyfikatory zatwierdzeń dla poleceń wieloetapowych, powiadomienia o archiwizacji/przywracaniu wątków | 51 |
| 2026-02-17 | App v26.217 | Przeciąganie i upuszczanie do zmiany kolejności wiadomości w kolejce, ostrzeżenie o obniżeniu modelu, ulepszone rozmyte wyszukiwanie plików z odzyskiwaniem załączników po restarcie | 52 |
| 2026-02-17 | CLI 0.103.0 | Atrybucja współautora commitów przez hook prepare-commit-msg (konfigurowalna przez command_attribution), bogatsze metadane/branding listy aplikacji, usunięto flagę funkcji remote_models |
50 |
| 2026-02-17 | Guide v2.4 | Zaktualizowano wszystkie odniesienia do wersji CLI 0.102.0, dodano wpis zmian v0.102.0 i przypis, zaktualizowano notatkę o pod-agentach z konfigurowalnymi rolami wieloagentowymi. | — |
| 2026-02-17 | CLI 0.102.0 | Ujednolicony przepływ uprawnień, strukturalne zatwierdzenia sieciowe, konfigurowalne role wieloagentowe, powiadomienia o przekierowaniu modeli, poprawki stabilności js_repl | 49 |
| 2026-02-16 | Guide v2.3 | Poprawiono tabelę migracji: hooks już istnieją (v0.99.0+), pod-agenty uwzględnione (maks. 6), lista modeli kompletna. Dodano dedykowaną sekcję Hooks (AfterAgent, AfterToolUse, wzorce migracji). Poprawiono fantomowe polecenia w Przepisie 5 (cloud start→cloud exec, cloud pull→apply). Poprawiono codex auth→codex login. Sandbox Windows promowany z Eksperymentalnego. Linux Bubblewrap jest teraz wbudowany. Dodano poziom reasoning minimal. Rozszerzono sekcję pamięci (udoskonalenia v0.101.0, pamięć vs AGENTS.md). Zaktualizowano listę użytkowników AGENTS.md (60 000+ projektów, zarządzanie Linux Foundation). Zaktualizowano tabelę migracji z Copilot. Poprawiono spójność [EXPERIMENTAL]. Dodano dokumentację polityki ReadOnlyAccess, sekcję JS REPL Runtime, przykład umiejętności Deploy w produkcji, rozszerzono sekcję kosztów (ukryty narzut tokenów, zarządzanie kosztami zespołu). Otagowano 20 nieotagowanych bloków kodu. Zweryfikowano wszystkich 30 kotwic spisu treści. Poprawki po ewaluacji: poprawiono terminologię /permissions (approval mode→approval policy), zmieniono nazwę zduplikowanego nagłówka „Project Trust”, złagodzono język deprecjacji chat/completions, rozszerzono sekcję OpenTelemetry z przykładem konfiguracji, sprecyzowano język migracji „trudniejsze do obejścia”. |
Audyt deliberacyjny |
| 2026-02-16 | Guide v2.2 | Dodano 19 historycznych wydań przełomowych CLI (v0.2.0–v0.91.0) do historii zmian. Zastąpiono zbiorczy cytat 25 dwudziestoma indywidualnymi przypisami wydań (37–61). Dodano 61 cytat licencji Apache 2.0. Dodano 5 cytat do odniesienia codex-linux-sandbox. Dodano 22 cytat do domeny preferencji MDM. Zaktualizowano 6 notatkę Seatbelt dot. blokowania botów. Dodano notatkę o nieweryfikowalnych adresach URL blogu OpenAI. Łączna liczba przypisów: 56 (było 36). | Audyt deliberacyjny |
| 2026-02-15 | Guide v2.1 | Poprawiono sekcję Enterprise (managed-admin-config.toml → requirements.toml ze zweryfikowanymi kluczami TOML), kontekst 272K zakwalifikowany jako okno wejściowe z cytatem, dodano URL cytatu 6 Seatbelt, dodano blok kluczowych wniosków, poprawiono naruszenia stylu, przycięto meta description, rozszerzono listę użytkowników AGENTS.md. | Audyt ewaluatora blogu |
| 2026-02-14 | Guide v2 | Główna rewizja: poprawki zweryfikowane przez Codex dotyczące modeli (kontekst 272K), kluczy konfiguracyjnych, flag funkcji, cennika, konfiguracji enterprise, akcji CI/CD, SDK API, opcji MCP, flag codex exec, funkcji aplikacji desktopowej, porównań migracji. Usunięto nieweryfikowalne twierdzenia. | Autoprzegląd |
| 2026-02-12 | CLI 0.101.0 | Ulepszenia rozpoznawania modeli, udoskonalenia pamięci, stabilność | 37 |
| 2026-02-12 | CLI 0.100.0 | Eksperymentalny JS REPL, wielokrotne limity szybkości, transport WebSocket, polecenia pamięci, ulepszony sandbox | 38 |
| 2026-02-12 | App v260212 | Rozgałęzianie konwersacji, pływające wyskakujące okno, wersja alpha dla Windows | 18 |
| 2026-02-12 | – | Premiera GPT-5.3-Codex-Spark (wariant interaktywny o niższym opóźnieniu) | 26 |
| 2026-02-11 | CLI 0.99.0 | Równoległe polecenia powłoki, /statusline, sortowalny selektor wznawiania, obsługa GIF/WebP, migawki powłoki |
39 |
| 2026-02-06 | CLI 0.98.0 | Obsługa GPT-5.3-Codex, tryb steer stabilny i domyślny, poprawki przełączania modeli | 40 |
| 2026-02-06 | CLI 0.97.0 | Zatwierdzenia MCP „Zezwól i zapamiętaj”, wykrywanie umiejętności na żywo, diagnostyka /config, mechanizmy pamięci |
41 |
| 2026-02-06 | CLI 0.96.0 | Asynchroniczny wątek/kompakcja v2, limity szybkości WebSocket, unified_exec poza Windows, pochodzenie konfiguracji | 42 |
| 2026-02-06 | CLI 0.95.0 | Polecenie codex app, umiejętności osobiste, równoległe narzędzia powłoki, wzmocnienie git |
43 |
| 2026-02-05 | – | Premiera GPT-5.3-Codex — zunifikowany model, 25% szybszy, kompleksowa obsługa komputera | 27 |
| 2026-02-02 | – | Premiera Codex Desktop App (macOS) — wielozadaniowość, worktrees, automatyzacje | 17 |
| 2026-01-30 | CLI 0.94.0 | Tryb planowania domyślny, osobowość stabilna, umiejętności z .agents/skills, metryki runtime |
44 |
| 2026-01-29 | CLI 0.93.0 | Proxy SOCKS5, strumieniowanie trybu planowania, /apps, inteligentne zatwierdzenia domyślne, logi SQLite |
45 |
| 2026-01-29 | CLI 0.92.0 | Wątki API v2, filtrowanie wątków, zakresy MCP OAuth, współpraca wieloagentowa | 46 |
| 2026-01-25 | CLI 0.91.0 | Zmniejszono maks. liczbę pod-agentów z 12 do 6 dla ściślejszych ograniczeń zasobów | 47 |
| 2026-01-21 | CLI 0.88.0 | Uwierzytelnianie awaryjne device-code, tryby współpracy, /fork, modele zdalne, konfiguracja model_personality |
48 |
| 2026-01-06 | CLI 0.78.0 | Edytor zewnętrzny Ctrl+G, warstwowanie konfiguracji z uwzględnieniem projektu, konfiguracja MDM macOS, nawigacja po transkrypcie TUI2, instalatory .dmg |
54 |
| 2025-12-18 | – | Premiera GPT-5.2-Codex — kompakcja kontekstu, refaktoryzacje/migracje, cyberbezpieczeństwo | 28 |
| 2025-12-09 | CLI 0.66.0 | System polityk exec (białe listy TUI, poprawki odmów sandboxa), zachowanie CRLF, podpisywanie Sigstore na Linuksie | 55 |
| 2025-11-19 | – | GPT-5.1-Codex-Max — kompakcja wielookienkowa, trening Windows, 30% mniej tokenów myślenia | 29 |
| 2025-11-19 | CLI 0.59.0 | Natywna kompakcja, limit wyjścia narzędzi podniesiony do 10K tokenów, sandbox trybu Agent na Windows, kredyty w /status |
56 |
| 2025-10-25 | CLI 0.50.0 | Diagnostyka /feedback, ocena ryzyka naruszenia sandboxa, ulepszenia startu MCP, redakcja zmiennych środowiskowych |
57 |
| 2025-10-06 | – | Codex GA na DevDay — integracja ze Slack, SDK, narzędzia administracyjne | 30 |
| 2025-10-06 | CLI 0.45.0 | Zmiana łamiąca: codex login --api-key → --with-api-key (stdin). Uwierzytelnianie OAuth MCP, równoległe wywołania narzędzi, pulsujący interfejs kropki |
58 |
| 2025-09-23 | – | GPT-5-Codex + rozszerzenie IDE + przebudowa CLI — obrazy, wyszukiwanie w sieci, przegląd kodu | 31 |
| 2025-09-23 | CLI 0.40.0 | Domyślny model → gpt-5-codex, automatyczna kompakcja przy 220K tokenów, polecenia /review, cofanie git, obsługa binarek Windows |
59 |
| 2025-06-30 | CLI 0.2.0 | Pierwsze wydanie binarne Rust — gotowe binaria dla macOS (aarch64/x86_64) i Linux (gnu/musl), narzędzia codex-exec i codex-linux-sandbox |
60 |
| 2025-06 | – | Ogłoszenie przepisania na Rust („Codex CLI is Going Native”) | 32 |
| 2025-06-03 | – | Rozszerzenie dla użytkowników Plus, dostęp do internetu w chmurze, aktualizacje PR, dyktowanie głosowe | 33 |
| 2025-05-16 | – | Premiera Codex Cloud — agent chmurowy z modelem codex-1, tworzenie PR GitHub | 34 |
| 2025-04-16 | – | Premiera open-source Codex CLI (Apache 2.0, TypeScript, codex-mini-latest)61 | 1 |
Źródła
Uwaga dotycząca adresów URL bloga OpenAI: Źródła 17, 26–31 i 34 prowadzą do wpisów na blogu
openai.com/index/, które zwracają HTTP 403 przy dostępie automatycznym z powodu ochrony Cloudflare przed botami. Adresy te są dostępne w standardowej przeglądarce internetowej.
-
GitHub — openai/codex — Repozytorium open-source, wydania i dyskusje. ↩↩↩
-
Codex CLI Windows Support — Instalacja na Windows i wskazówki dotyczące WSL. ↩
-
Codex IDE Extension — Integracja z VS Code, Cursor i Windsurf. ↩
-
Codex Cloud — Dokumentacja zadań w chmurze i kontroli dostępu do internetu. ↩↩
-
Codex Security — Architektura sandbox i model bezpieczeństwa. ↩↩↩
-
macOS Seatbelt Sandbox — Dokumentacja społecznościowa frameworka sandbox-exec firmy Apple (oficjalna dokumentacja deweloperska Apple nie została opublikowana). Uwaga: ta wiki może blokować dostęp automatyczny (HTTP 403); zob. również
man sandbox-execw macOS. ↩↩↩ -
Linux Landlock LSM — Kontrola dostępu do systemu plików na poziomie jądra. ↩
-
How Codex CLI Flags Actually Work — Analiza społecznościowa interakcji flag. ↩
-
Breaking Out of the Sandbox — Społecznościowe wzorce konfiguracji sandbox. ↩
-
AGENTS.md Open Standard — Międzynarzędziowy standard instrukcji pod egidą Linux Foundation. ↩
-
Custom Instructions with AGENTS.md — Oficjalny przewodnik. ↩
-
Codex MCP Integration — Konfiguracja i zarządzanie serwerami MCP. ↩
-
Building Workflows with Agents SDK — Codex jako serwer MCP do orkiestracji wielu agentów. ↩
-
Agent Skills — Dokumentacja systemu skills. ↩
-
Codex CLI Features — Tryb planowania, tryb sterowania i funkcje współpracy. ↩↩
-
Non-Interactive Mode — Dokumentacja
codex exec. ↩ -
Introducing the Codex App — Ogłoszenie premiery aplikacji desktopowej. ↩↩↩
-
Codex App Documentation — Funkcje aplikacji desktopowej i rozwiązywanie problemów. ↩↩
-
Codex GitHub Action — Integracja CI/CD. ↩
-
Codex Pricing — Cennik subskrypcji i API. ↩
-
Codex Configuration Reference — Schemat requirements.toml dla przedsiębiorstw i dystrybucja MDM. ↩↩↩
-
Best Practices for Using Codex — Wątek na forum społeczności. ↩
-
feiskyer/codex-settings — Utrzymywane przez społeczność konfiguracje, skills i prompty. ↩
-
Codex CLI Releases — Informacje o wydaniach na GitHub. ↩↩
-
Introducing GPT-5.3-Codex-Spark — Partnerstwo z Cerebras, ponad 1000 tok/s. ↩↩
-
Introducing GPT-5.3-Codex — Premiera zunifikowanego modelu. ↩
-
Introducing GPT-5.2-Codex — Kompakcja kontekstu i zmiany na dużą skalę. ↩
-
Building More with GPT-5.1-Codex-Max — Kompakcja wielookienkowa. ↩
-
Codex is Now Generally Available — Ogłoszenie na DevDay 2025. ↩
-
Introducing Upgrades to Codex — GPT-5-Codex + rozszerzenie IDE. ↩↩
-
Codex CLI is Going Native — Dyskusja o przepisaniu na Rust. ↩
-
Codex Updates: Internet Access and Plus Rollout — Rozszerzenie dostępności z czerwca 2025. ↩
-
Introducing Codex — Premiera agenta chmurowego. ↩↩
-
Codex Context Window Discussion — 272K tokenów wejściowych + 128K tokenów wyjściowych = łączny budżet 400K, potwierdzone w kodzie źródłowym. ↩
-
Deprecating chat/completions support in Codex — OpenAI ogłosiło usunięcie API chat/completions dla Codex, ukończone w lutym 2026. ↩
-
Codex CLI v0.101.0 — Ulepszenia rozwiązywania modeli, udoskonalenia pamięci, stabilność. 12 lutego 2026. ↩↩
-
Codex CLI v0.100.0 — Eksperymentalny JS REPL, wiele limitów częstotliwości, transport WebSocket, polecenia pamięci, ulepszony sandbox. 12 lutego 2026. ↩
-
Codex CLI v0.99.0 — Współbieżne polecenia powłoki,
/statusline, sortowalny selektor wznawiania, obsługa GIF/WebP, migawki powłoki. 11 lutego 2026. ↩ -
Codex CLI v0.98.0 — Obsługa GPT-5.3-Codex, tryb sterowania stabilny i domyślny, poprawki przełączania modeli. 6 lutego 2026. ↩
-
Codex CLI v0.97.0 — Zatwierdzenia MCP „zezwól i zapamiętaj”, wykrywanie skills w czasie rzeczywistym, diagnostyka
/config, mechanizm pamięci. 6 lutego 2026. ↩ -
Codex CLI v0.96.0 — Asynchroniczne wątki/kompakcja v2, limity częstotliwości WebSocket, unified_exec poza Windows, pochodzenie konfiguracji. 6 lutego 2026. ↩
-
Codex CLI v0.95.0 — Polecenie
codex app, osobiste skills, równoległe narzędzia powłoki, wzmocnienie git. 6 lutego 2026. ↩ -
Codex CLI v0.94.0 — Tryb planowania domyślny, osobowość stabilna, skills z
.agents/skills, metryki runtime. 30 stycznia 2026. ↩ -
Codex CLI v0.93.0 — Proxy SOCKS5, strumieniowanie trybu planowania,
/apps, inteligentne zatwierdzenia domyślne, logi SQLite. 29 stycznia 2026. ↩ -
Codex CLI v0.92.0 — Wątki API v2, filtrowanie wątków, zakresy MCP OAuth, współpraca wielu agentów. 29 stycznia 2026. ↩
-
Codex CLI v0.91.0 — Zmniejszenie maksymalnej liczby podagentów z 12 do 6 dla ściślejszej kontroli zasobów. 25 stycznia 2026. ↩
-
Codex CLI v0.88.0 — Awaryjne uwierzytelnianie kodem urządzenia, tryby współpracy,
/fork, zdalne modele, konfiguracjamodel_personality. 21 stycznia 2026. ↩ -
Codex CLI v0.102.0 — Zunifikowany przepływ uprawnień, ustrukturyzowane zatwierdzenia sieciowe, konfigurowalne role wielu agentów, powiadomienia o przekierowaniu modelu. 17 lutego 2026. ↩↩
-
Codex CLI v0.103.0 — Atrybucja współautora commitów przez hook prepare-commit-msg, bogatsze metadane/branding listy aplikacji, usunięcie flagi
remote_models. 17 lutego 2026. ↩ -
Codex CLI v0.104.0 — Obsługa proxy WebSocket WS_PROXY/WSS_PROXY, odrębne identyfikatory zatwierdzeń dla poleceń, powiadomienia o archiwizacji/przywracaniu wątków. 18 lutego 2026. ↩↩↩
-
Codex Changelog — Codex App v26.217: zmiana kolejności przeciągnij-i-upuść, ostrzeżenie o obniżeniu modelu, ulepszenia wyszukiwania rozmytego plików. Codex Config Reference — Kompletna dokumentacja kluczy konfiguracji. Luty 2026. ↩↩
-
Codex Pricing — Poziomy planów, limity użycia na okno 5-godzinne, koszty kredytów oraz promocyjny dostęp Free/Go. Luty 2026. ↩↩
-
Codex CLI v0.78.0 — Zewnętrzny edytor
Ctrl+G, warstwowa konfiguracja uwzględniająca projekt, konfiguracja macOS MDM, nawigacja po transkrypcie TUI2, instalatory.dmg. 6 stycznia 2026. ↩ -
Codex CLI v0.66.0 — System polityk exec, zachowanie CRLF w Windows,
--branchw exec chmurowym, podpisywanie Sigstore dla Linuksa. 9 grudnia 2025. ↩ -
Codex CLI v0.59.0 — Natywna kompakcja, limit wyjścia narzędzi podniesiony do 10K tokenów, sandbox trybu Agent w Windows, kredyty w
/status. 19 listopada 2025. ↩ -
Codex CLI v0.50.0 — Diagnostyka
/feedback, ocena ryzyka naruszeń sandbox, ulepszenia uruchamiania MCP, redakcja zmiennych środowiskowych. 25 października 2025. ↩ -
Codex CLI v0.45.0 — Zmiana łamiąca kompatybilność:
codex login --api-key→--with-api-key(stdin). Uwierzytelnianie OAuth MCP, równoległe wywołania narzędzi. 6 października 2025. ↩ -
Codex CLI v0.40.0 — Domyślny model →
gpt-5-codex, automatyczna kompakcja przy 220K tokenów, polecenia/review, cofanie git, binarka Windows. 23 września 2025. ↩ -
Codex CLI v0.2.0 — Pierwsze wydanie binarki Rust. Gotowe binarki dla macOS (aarch64/x86_64) i Linuksa (gnu/musl), narzędzia
codex-execicodex-linux-sandbox. 30 czerwca 2025. ↩ -
GitHub — openai/codex LICENSE — Licencja Apache 2.0. Pierwotna premiera open-source w kwietniu 2025. ↩↩↩
-
Codex CLI v0.106.0 — Skrypt bezpośredniej instalacji, js_repl przeniesiony do /experimental (Node 22.22.0+), request_user_input w trybie Default, zapominanie pamięci oparte na diff, poprawka obejścia sandbox zsh-fork, limit wejścia ~1M znaków, poprawka podagenta Ctrl-C. 26 lutego 2026. ↩↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.105.0 — Kolorowanie składni TUI z /theme, transkrypcja głosu, spawn_agents_on_csv, /copy /clear Ctrl-L, elastyczna kontrola zatwierdzeń, system plików /dev dla Linuksa, odzyskiwanie po błędach js_repl. 25 lutego 2026. ↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.107.0 — Rozwidlanie wątków na podagentów, wybór urządzenia głosowego w czasie rzeczywistym, multimodalne wyjście niestandardowych narzędzi, konfigurowalne wspomnienia z
codex debug clear-memories. 2 marca 2026. ↩↩↩↩↩↩ -
Codex Changelog — App v26.226 — Skróty MCP w kompozytorze, @wzmianki w komentarzach recenzji, obsługa błędów diagramów Mermaid. 26 lutego 2026. ↩↩↩