Codex CLI: The Definitive Technical Reference
#
Resumo: Codex é um agente de codificação multi-superfície que lê sua base de código, executa comandos em um sandbox no nível do sistema operacional, aplica patches em arquivos e delega tarefas para a nuvem. Domine cinco sistemas centrais (config.toml, modelo de sandbox/aprovação, AGENTS.md, MCP e skills) e o Codex se torna um multiplicador de força. Use profiles para alternar entre contextos,
/compactpara gerenciar o orçamento de 272K tokens, e AGENTS.md para instruções de projeto cross-tool que funcionam no Codex, Cursor, Amp e outros.
Codex opera como um agente de codificação multi-superfície, não como um chatbot que escreve código. O CLI lê sua base de código, executa comandos em um sandbox, aplica patches em arquivos, conecta-se a serviços externos via MCP e delega tarefas de longa duração para a nuvem. Ele roda localmente, mas pensa globalmente; a mesma inteligência alimenta quatro superfícies distintas, dependendo de como você trabalha.
A diferença entre o uso casual e o uso eficiente do Codex se resume a cinco sistemas centrais. Domine-os e o Codex se torna um multiplicador de força:
- Sistema de configuração: controla o comportamento via
config.toml - Modelo de sandbox e aprovação: determina o que o Codex pode fazer
- AGENTS.md: define contratos operacionais no nível do projeto
- Protocolo MCP: estende as capacidades para serviços externos
- Sistema de skills: empacota expertise de domínio reutilizável
Passei meses executando o Codex junto com o Claude Code em bases de código de produção, pipelines de CI/CD e fluxos de trabalho de equipe. Este guia destila essa experiência na referência completa que eu gostaria que existisse quando comecei. Cada recurso inclui a sintaxe real, exemplos de configuração práticos e os casos extremos que confundem até usuários experientes.
Nota de estabilidade: Recursos marcados como
[EXPERIMENTAL]estão sujeitos a alterações entre versões. O Codex Cloud e o grupo de comandos MCP são ambos experimentais a partir da v0.107.0. O CLI principal, sandbox, AGENTS.md, config.toml e Skills são estáveis.
Principais conclusões
- Quatro superfícies, um cérebro: CLI, aplicativo desktop, extensão para IDE e tarefas na nuvem compartilham a mesma inteligência GPT-5.x-Codex, então escolha a superfície que melhor se adapta ao seu fluxo de trabalho.
- Sandboxing em nível de sistema operacional: Codex aplica restrições de sistema de arquivos e rede no nível do kernel (Seatbelt no macOS, Landlock + seccomp no Linux), não dentro de contêineres.
- AGENTS.md é cross-tool: Suas instruções de projeto funcionam no Codex, Cursor, Copilot, Amp, Jules, Gemini CLI, Windsurf, Cline, Aider, Zed e em mais de 60.000 projetos open source. Escreva uma vez, use em qualquer lugar.
- Profiles economizam o custo de troca de contexto: Defina presets de configuração nomeados (
fast,careful,auto) e alterne entre eles com--profile. - 272K tokens de contexto de entrada se esgotam rápido: Use
/compact, prompts focados e referências@filepara gerenciar orçamentos de tokens proativamente.
Como usar este guia
Esta é uma referência com mais de 2.500 linhas — comece onde seu nível de experiência se encaixa:
| Experiência | Comece aqui | Depois explore |
|---|---|---|
| Novo no Codex | Instalação → Início rápido → Modelo mental | Configuração, Sandbox |
| Usuário diário | AGENTS.md, Skills, Modo de planejamento | MCP, Hooks |
| Líder de equipe / enterprise | Implantação enterprise → Melhores práticas | Frameworks de decisão, Receitas de workflow |
| Migrando de outra ferramenta | Guia de migração | Frameworks de decisão |
O Cartão de referência rápida no final fornece um resumo escaneável de todos os principais comandos.
Como o Codex funciona: o modelo mental
Antes de mergulhar nos recursos, entenda como a arquitetura do Codex molda tudo o que você faz com ele. O sistema opera em quatro superfícies sustentadas por uma camada de inteligência compartilhada:
┌─────────────────────────────────────────────────────────┐
│ CODEX SURFACES │
├─────────────────────────────────────────────────────────┤
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌────────┐ │
│ │ CLI │ │ Desktop │ │ IDE │ │ Cloud │ │
│ │ Terminal │ │ App │ │Extension │ │ Tasks │ │
│ └──────────┘ └──────────┘ └──────────┘ └────────┘ │
│ Local exec Multi-task Editor-native Async │
│ + scripting + worktrees + inline edits detached │
├─────────────────────────────────────────────────────────┤
│ EXTENSION LAYER │
│ ┌─────────┐ ┌─────────┐ ┌─────────┐ ┌─────────┐ │
│ │ MCP │ │ Skills │ │ Apps │ │ Search │ │
│ └─────────┘ └─────────┘ └─────────┘ └─────────┘ │
│ External tools, reusable expertise, ChatGPT │
│ connectors, web search (cached + live) │
├─────────────────────────────────────────────────────────┤
│ SECURITY LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ Sandbox (Seatbelt / Landlock / seccomp) │ │
│ │ + Approval Policy (untrusted → never) │ │
│ └─────────────────────────────────────────────────┘ │
│ OS-level filesystem + network restrictions │
├─────────────────────────────────────────────────────────┤
│ CORE LAYER │
│ ┌─────────────────────────────────────────────────┐ │
│ │ GPT-5.x-Codex Intelligence │ │
│ │ Tools: Shell, Patch, Read, Web Search │ │
│ └─────────────────────────────────────────────────┘ │
│ Shared model across all surfaces; costs tokens │
└─────────────────────────────────────────────────────────┘
Camada principal (Core Layer): A família de modelos GPT-5.x-Codex alimenta tudo. Na versão v0.107.0, gpt-5.3-codex é o modelo padrão com uma janela de contexto de entrada de 272K tokens (128K de saída, 400K de orçamento total).35 Ele lê arquivos, escreve patches, executa comandos shell e raciocina sobre sua base de código. Quando o contexto se esgota, o Codex compacta a conversa para liberar espaço. Esta camada consome tokens.
Camada de segurança (Security Layer): Cada comando que o Codex executa passa por um sandbox em nível de sistema operacional. No macOS, o framework Seatbelt da Apple aplica restrições no nível do kernel. No Linux, Landlock + seccomp filtram o acesso ao sistema de arquivos e chamadas de sistema. O sandbox opera no nível do kernel, não dentro de contêineres. A política de aprovação então decide quando solicitar confirmação humana.
Camada de extensão (Extension Layer): MCP conecta serviços externos (GitHub, Figma, Sentry). Skills empacotam workflows reutilizáveis que o Codex carrega sob demanda. Apps conectam-se a conectores do ChatGPT. A busca na web adiciona contexto em tempo real da internet.
Camada de superfície (Surface Layer): CLI para usuários avançados de terminal e automação. Aplicativo desktop para gerenciamento de projetos com múltiplas threads. Extensão para IDE para ciclos de editar-compilar-testar. Cloud para tarefas assíncronas que executam independentemente.
O insight principal: A maioria dos usuários usa apenas uma superfície. Usuários avançados usam todas as quatro: Cloud para tarefas de longa duração, CLI para operações determinísticas no repositório, extensão para IDE para ciclos de codificação rápidos e o aplicativo desktop para planejamento e coordenação.
Sumário
- Como instalar o Codex?
- Início rápido: sua primeira sessão
- Superfícies de interação principais
- Aprofundamento no sistema de configuração
- Qual modelo devo escolher?
- Quanto custa o Codex?
- Frameworks de decisão
- Como funciona o sandbox e o sistema de aprovação?
- Como funciona o AGENTS.md?
- Hooks
- O que é MCP (Model Context Protocol)?
- Runtime REPL JavaScript
- O que são Skills?
- Modo de planejamento e colaboração
- Sistema de memória
- Gerenciamento de sessões
- Modo não interativo (codex exec)
- Codex Cloud e tarefas em segundo plano
- O aplicativo desktop do Codex
- GitHub Action e CI/CD
- Codex SDK
- Otimização de desempenho
- Como depurar problemas?
- Implantação enterprise
- Melhores práticas e anti-padrões
- Receitas de workflow
- Guia de migração
- Cartão de referência rápida
- Changelog
- Referências
Como instalar o Codex?
Gerenciadores de pacotes
# npm (recommended)
npm install -g @openai/codex
# Homebrew (macOS)
brew install --cask codex
# Upgrade to latest
npm install -g @openai/codex@latest
Script de instalação direta (v0.106.0+)
Para macOS e Linux, um script de instalação em uma única linha está disponível como asset de release no GitHub:62
curl -fsSL https://github.com/openai/codex/releases/latest/download/install.sh | sh
O script detecta automaticamente sua plataforma e arquitetura, baixa o binário correto e o coloca no seu PATH.
Downloads de binários
Para ambientes sem npm ou Homebrew, baixe binários específicos para cada plataforma em Releases do GitHub1:
| Plataforma | Binário |
|---|---|
| macOS Apple Silicon | codex-aarch64-apple-darwin.tar.gz |
| macOS x86_64 | codex-x86_64-apple-darwin.tar.gz |
| Linux x86_64 | codex-x86_64-unknown-linux-musl.tar.gz |
| Linux arm64 | codex-aarch64-unknown-linux-musl.tar.gz |
Requisitos do sistema
- macOS: Apple Silicon ou Intel (suporte completo a sandbox via Seatbelt)
- Linux: x86_64 ou arm64 (sandbox via Landlock + seccomp)
- Windows: Sandbox nativo com tokens restritos (promovido de experimental na v0.100.0). WSL também é suportado2
Autenticação
codex login # Interactive OAuth (recommended)
codex login --device-auth # OAuth device code flow (headless)
codex login --with-api-key # API key from stdin
codex login status # Check auth state (exit 0 = logged in)
codex logout # Clear stored credentials
Dois caminhos de autenticação:
- Conta ChatGPT (recomendado): Faça login com sua assinatura existente Plus, Pro, Team, Business, Edu ou Enterprise. Acesso completo a todos os recursos, incluindo tarefas na nuvem.
- Chave API: Configure via variável de ambiente
CODEX_API_KEYoucodex login --with-api-key. Alguns recursos (threads na nuvem) podem não estar disponíveis.
Dica avançada: O armazenamento de credenciais é configurável via
cli_auth_credentials_storenoconfig.toml. Opções:file(padrão),keyring(chaveiro do SO) ouauto(keyring se disponível, fallback para arquivo).
Completions do shell
# Generate completions for your shell
codex completion bash > /etc/bash_completion.d/codex
codex completion zsh > ~/.zsh/completions/_codex
codex completion fish > ~/.config/fish/completions/codex.fish
Verificar a instalação
codex --version
# Codex CLI v0.104.0
## Início Rápido: Sua Primeira Sessão
Vá do zero à produtividade em 5 minutos.
**1. Instale e autentique:**
```bash
npm i -g @openai/codex # Install
codex login # Log in with your OpenAI account
2. Navegue até um projeto:
cd ~/my-project # Any git repo works
3. Inicie o Codex:
codex
Você verá a TUI interativa. O Codex lê a estrutura do seu projeto automaticamente.
4. Faça uma pergunta:
> What does this project do? Summarize the architecture.
O Codex lê os arquivos principais e explica a base de código. Nenhuma alteração é feita no modo suggest padrão.
5. Faça uma alteração:
> Add input validation to the login endpoint
O Codex propõe edições como um diff. Revise e aprove com y, ou rejeite com n.
6. Use um slash command:
> /plan Refactor the database layer to use connection pooling
O Codex cria um plano sem executar. Revise o plano e depois aprove para iniciar a execução.
7. Verifique seu trabalho:
> /diff
Veja todas as alterações que o Codex fez na sessão atual.
Próximos passos:
- Configure o AGENTS.md com instruções do projeto (veja Como o AGENTS.md Funciona?)
- Configure um perfil para seu fluxo de trabalho (veja Perfis)
- Experimente o codex exec para automação não interativa (veja Modo Não Interativo)
Superfícies de Interação Principais
O Codex oferece quatro interfaces distintas respaldadas pela mesma inteligência. Cada superfície é otimizada para um padrão de fluxo de trabalho diferente.
1. CLI Interativo (Terminal UI)
codex # Launch TUI
codex "fix the failing tests" # Launch with initial prompt
codex -m gpt-5.3-codex # Specify model
codex --full-auto # Workspace-write sandbox + on-request approval
A TUI é uma aplicação em tela cheia com:
- Composer: Digite prompts, anexe arquivos com
@, execute comandos shell com o prefixo! - Painel de saída: Respostas do modelo em streaming, chamadas de ferramentas e saída de comandos
- Barra de status: Modelo, uso de tokens, branch do git, modo sandbox
Atalhos principais da TUI:
| Atalho | Ação |
|---|---|
@ |
Busca fuzzy de arquivos (anexar ao contexto) |
!command |
Executar comando shell diretamente |
Ctrl+G |
Abrir editor externo ($VISUAL / $EDITOR) |
Enter (durante execução) |
Injetar novas instruções durante o turno |
Esc duas vezes |
Editar mensagens anteriores |
| Teclas de seta | Navegar pelo histórico de rascunhos |
Slash commands disponíveis na TUI:
| Comando | Descrição |
|---|---|
/quit ou /exit |
Sair do CLI |
/new |
Iniciar nova conversa na mesma sessão |
/resume |
Retomar uma conversa salva |
/fork |
Bifurcar a conversa atual em uma nova thread |
/model |
Alternar modelo e esforço de raciocínio |
/compact |
Resumir conversa para liberar tokens |
/diff |
Mostrar git diff incluindo arquivos não rastreados |
/review |
Revisão de código da árvore de trabalho |
/plan |
Entrar no modo de planejamento |
/mention |
Anexar arquivo à conversa |
/init |
Gerar scaffold do AGENTS.md |
/status |
Configuração da sessão e uso de tokens |
/permissions |
Definir política de aprovação |
/personality |
Estilo de comunicação (friendly/pragmatic/none) |
/mcp |
Listar ferramentas MCP configuradas |
/apps |
Explorar conectores do ChatGPT |
/ps |
Mostrar terminais em segundo plano |
/skills |
Acessar e invocar skills |
/config |
Exibir valores de configuração efetivos e suas origens |
/statusline |
Configurar rodapé da TUI |
/feedback |
Enviar logs para os mantenedores do Codex |
/logout |
Sair da conta |
2. Codex Desktop App (macOS)
codex app # Launch desktop app (auto-installs if missing)
O desktop app adiciona capacidades que o CLI não possui:
- Multitarefa: Execute múltiplos agentes em paralelo em diferentes projetos simultaneamente
- Isolamento com git worktree: Cada thread trabalha em uma cópia isolada do seu repositório
- Revisão de diff inline: Faça stage, reverta e commite alterações sem sair do app
- Terminal integrado: Terminal por thread para execução de comandos
- Bifurcação de conversas: Ramifique conversas para explorar alternativas
- Janelas flutuantes destacáveis: Destaque conversas em janelas portáteis
- Automações: Agende tarefas recorrentes (triagem de issues, monitoramento de CI, resposta a alertas)
Quando usar o app vs CLI: Use o desktop app quando estiver coordenando múltiplas frentes de trabalho ou precisar de revisão visual de diffs. Use o CLI quando quiser composabilidade no terminal, scripting ou integração com CI/CD.
3. Extensão para IDE (VS Code, Cursor, Windsurf)
A extensão do Codex para IDE se integra diretamente ao seu editor:
- Modo agente por padrão: Lê arquivos, faz edições, executa comandos
- Edições inline: Sugestões contextuais nos seus arquivos ativos
- Sessões compartilhadas: Sessões sincronizam entre CLI e extensão para IDE
- Mesma autenticação: Faça login com conta do ChatGPT ou API key
Instale pelo VS Code Marketplace ou pelas lojas de extensões do Cursor/Windsurf.3
4. Codex Cloud [EXPERIMENTAL]
Tarefas na nuvem executam de forma assíncrona em ambientes gerenciados pela OpenAI:
- Disparar e esquecer: Enfileire tarefas que executam independentemente da sua máquina local
- Execução paralela: Execute múltiplas tarefas na nuvem simultaneamente
- Criação de PR: O Codex cria pull requests a partir do trabalho concluído
- Aplicação local: Puxe resultados da nuvem para seu repositório local com
codex apply <TASK_ID>
codex cloud list # List recent cloud tasks
codex apply <TASK_ID> # Apply diff from a specific cloud task
Tarefas na nuvem também são acessíveis em chatgpt.com/codex.4
Mergulho profundo no sistema de configuração
Codex usa TOML para configuração. Entender a hierarquia de precedência é essencial porque ela determina quais configurações prevalecem quando há conflitos.
Precedência (da mais alta para a mais baixa)
- Substituições de sessão (mais alta): flags CLI (
--model,--sandbox,--ask-for-approval,--search,--enable/--disable,--profile) e substituições-c key=value - Configuração do projeto (
.codex/config.toml, descoberta a partir do diretório atual subindo até a raiz do projeto; o diretório mais próximo prevalece) - Configuração do usuário (
$CODEX_HOME/config.toml, padrão~/.codex/config.toml) - Configuração do sistema (
/etc/codex/config.tomlem Unix) - Padrões integrados (mais baixa)
requirements.tomlatua como uma camada de restrição de políticas que limita quais valores os usuários podem selecionar após a mesclagem normal de configurações. Veja Implantação empresarial.
Localização dos arquivos de configuração
| Escopo | Caminho | Finalidade |
|---|---|---|
| Usuário | ~/.codex/config.toml |
Padrões pessoais |
| Projeto | .codex/config.toml |
Substituições por repositório |
| Sistema | /etc/codex/config.toml |
Padrões de toda a máquina |
| Gerenciado | /etc/codex/requirements.toml |
Restrições de política impostas pelo administrador |
Dica avançada: A variável de ambiente
CODEX_HOMEsubstitui o diretório padrão~/.codex. Útil para CI/CD ou configurações com múltiplas contas.
Referência completa de configuração
# ~/.codex/config.toml — annotated reference
# ─── Model Selection ───────────────────────────────────
model = "gpt-5.3-codex" # Default model (272K input context)
model_provider = "openai" # Provider (openai, oss, or custom provider id)
model_context_window = 272000 # Token count available to active model (override)
model_auto_compact_token_limit = 200000 # Threshold triggering automatic history compaction
model_reasoning_effort = "medium" # minimal|low|medium|high|xhigh (model-dependent)
model_reasoning_summary = "auto" # auto|concise|detailed|none
model_verbosity = "medium" # low|medium|high
personality = "pragmatic" # none|friendly|pragmatic
review_model = "gpt-5.2-codex" # Model for /review command
oss_provider = "lmstudio" # lmstudio|ollama (used with --oss)
# ─── Sandbox & Approval ───────────────────────────────
sandbox_mode = "workspace-write" # read-only|workspace-write|danger-full-access
approval_policy = "on-request" # untrusted|on-failure|on-request|never
[sandbox_workspace_write]
writable_roots = [] # Additional writable paths
network_access = false # Allow outbound network
exclude_tmpdir_env_var = false # Exclude $TMPDIR from sandbox
exclude_slash_tmp = false # Exclude /tmp from sandbox
# ─── Web Search ────────────────────────────────────────
web_search = "live" # Web search mode (constrained by allowed modes)
# ─── Instructions ──────────────────────────────────────
developer_instructions = "" # Additional injected instructions
model_instructions_file = "" # Custom instructions file path
compact_prompt = "" # Custom history compaction prompt
# ─── Shell Environment ─────────────────────────────────
allow_login_shell = false # Allow login shell semantics (loads .profile/.zprofile)
[shell_environment_policy]
inherit = "all" # all|core|none
ignore_default_excludes = false # Set true to keep KEY/SECRET/TOKEN vars
exclude = [] # Glob patterns to exclude
set = {} # Explicit overrides
include_only = [] # Whitelist patterns
# ─── Authentication ────────────────────────────────────
cli_auth_credentials_store = "file" # file|keyring|auto
forced_login_method = "chatgpt" # chatgpt|api
mcp_oauth_callback_port = 0 # Fixed port for MCP OAuth callback (0 = random)
mcp_oauth_credentials_store = "auto" # auto|file|keyring
# ─── History & Storage ─────────────────────────────────
[history]
persistence = "save-all" # save-all|none
max_bytes = 0 # Cap size (0 = unlimited)
tool_output_token_limit = 10000 # Max tokens per tool output
log_dir = "" # Custom log directory
# ─── UI & Display ──────────────────────────────────────
file_opener = "vscode" # vscode|vscode-insiders|windsurf|cursor|none
hide_agent_reasoning = false
show_raw_agent_reasoning = false
check_for_update_on_startup = true
[tui]
notifications = false # Enable notifications
notification_method = "auto" # auto|osc9|bel
animations = true
show_tooltips = true
alternate_screen = "auto" # auto|always|never
status_line = ["model", "context-remaining", "git-branch"]
# ─── Project Trust ─────────────────────────────────────
project_doc_max_bytes = 32768 # Max AGENTS.md size (32 KiB)
project_doc_fallback_filenames = [] # Alternative instruction filenames
project_root_markers = [".git"] # Project root detection
# ─── Feature Flags ─────────────────────────────────────
# Use `codex features list` for current names/stages/defaults.
[features]
shell_tool = true # Shell command execution (stable)
collaboration_modes = true # Plan mode (stable)
personality = true # Personality selection (stable)
request_rule = true # Smart approvals (stable)
unified_exec = true # PTY-backed exec (stable)
shell_snapshot = true # Shell env snapshots (stable)
command_attribution = true # Codex co-author in commits (v0.103.0+)
request_user_input = true # Allow agent to ask clarifying questions in Default mode (v0.106.0+)
multi_agent = false # Enable multi-agent collaboration tools (v0.102.0+)
apply_patch_freeform = false # Expose freeform apply_patch tool
apps = false # ChatGPT Apps/connectors (experimental)
child_agents_md = false # AGENTS.md guidance (experimental)
runtime_metrics = false # Runtime summary in turns
search_tool = false # Enable search_tool_bm25 for Apps discovery
# ─── Multi-Agent Roles (v0.102.0+) ───────────────────
[agents]
max_threads = 4 # Maximum concurrent agent threads
[agents.explorer]
description = "Read-only codebase navigator"
config_file = "~/.codex/profiles/explorer.toml"
# ─── Notifications ────────────────────────────────────
notify = ["terminal-notifier", "-title", "Codex"] # Command for notifications
# ─── Per-Project Overrides ────────────────────────────
[projects."/absolute/path/to/repo"]
trust_level = "trusted" # Per-project trust override
Perfis
Predefinições de configuração nomeadas para diferentes modos de trabalho:
# Define profiles in ~/.codex/config.toml
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
approval_policy = "on-request"
sandbox_mode = "workspace-write"
personality = "pragmatic"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
approval_policy = "untrusted"
sandbox_mode = "read-only"
[profiles.auto]
model = "gpt-5.3-codex"
model_reasoning_effort = "medium"
approval_policy = "never"
sandbox_mode = "workspace-write"
Ativar um perfil:
codex --profile fast "quick refactor"
codex --profile careful "security audit"
codex -p auto "fix CI"
Dica avançada: Defina um perfil padrão com
profile = "fast"no nível superior da sua configuração. Substitua por sessão com--profile.
Provedores de modelo personalizados
Conecte-se ao Azure, modelos locais ou serviços proxy:
[model_providers.azure]
name = "Azure OpenAI"
base_url = "https://YOUR_PROJECT.openai.azure.com/openai"
wire_api = "responses"
query_params = { api-version = "2025-04-01-preview" }
env_key = "AZURE_OPENAI_API_KEY"
[model_providers.ollama]
name = "Ollama (Local)"
base_url = "http://localhost:11434/v1"
wire_api = "chat"
Aviso: A API wire
chat/completions(wire_api = "chat") foi descontinuada para modelos hospedados na OpenAI, com a OpenAI anunciando a remoção em fevereiro de 2026.36 Provedores locais (Ollama, LM Studio) ainda podem aceitar este formato. Para endpoints da OpenAI, usewire_api = "responses"em vez disso.
Use modelos locais com a flag --oss:
codex --oss "explain this function" # Uses default OSS provider
codex --oss --local-provider lmstudio "explain" # Explicit LM Studio
codex --oss --local-provider ollama "explain" # Explicit Ollama
Ou defina na configuração:
model_provider = "oss"
oss_provider = "lmstudio" # or "ollama"
Substituições de configuração inline
Substitua qualquer valor de configuração pela linha de comando:
codex -c model="gpt-5.2-codex" "refactor the API"
codex -c 'sandbox_workspace_write.network_access=true' "install dependencies"
codex -c model_reasoning_effort="xhigh" "debug the race condition"
Qual modelo devo escolher?
Modelos disponíveis (fevereiro de 2026)
| Modelo | Entrada / Contexto Total | Raciocínio Padrão | Melhor Para |
|---|---|---|---|
| gpt-5.3-codex | 272K / 400K | medium |
Modelo principal padrão: codificação + raciocínio unificados |
| gpt-5.3-codex-spark | 128K / 128K | high |
Pareamento em tempo real, iteração interativa rápida |
| gpt-5.2-codex | 272K / 400K | medium |
Refatorações de longo prazo, migrações, código legado |
| gpt-5.1-codex-mini | 272K / 400K | medium |
Tarefas rápidas, trabalho sensível a custos, CI de alto volume |
A lista exata de modelos varia por conta e disponibilidade. A partir da v0.106.0,
gpt-5.3-codexestá visível na lista de modelos do CLI para usuários com chave API.62 Verifique seu cache local:~/.codex/models_cache.json.
Fluxograma de seleção de modelo
Is this a quick fix or simple question?
├─ Yes → gpt-5.1-codex-mini (fastest, cheapest)
└─ No
├─ Do you need real-time pairing speed?
│ ├─ Yes → gpt-5.3-codex-spark (interactive, lower latency)
│ └─ No
│ ├─ Is this a multi-file refactor or migration?
│ │ ├─ Yes → gpt-5.2-codex (272K context, strong at long tasks)
│ │ └─ No → gpt-5.3-codex (default, best overall)
└─ Still unsure? → gpt-5.3-codex
Esforço de raciocínio
Controle o quanto o modelo “pensa” antes de responder:
| Nível | Comportamento | Quando Usar |
|---|---|---|
minimal |
Raciocínio mínimo (apenas modelos GPT-5) | Tarefas triviais, consultas rápidas |
low |
Raciocínio breve | Tarefas padrão de codificação, formatação |
medium |
Equilibrado (padrão) | A maioria do trabalho de desenvolvimento |
high |
Raciocínio estendido | Bugs complexos, arquitetura |
xhigh |
Raciocínio máximo | Auditorias de segurança, análise profunda |
Os níveis suportados dependem do modelo.
minimalestá disponível apenas para modelos GPT-5. Nem todos os modelos suportam todos os níveis.
codex -c model_reasoning_effort="xhigh" "find the race condition"
Dica avançada: o raciocínio
xhighpode usar de 3 a 5x mais tokens do quemediumpara o mesmo prompt. Reserve-o para problemas genuinamente difíceis onde o raciocínio extra compensa.
Troca de modelo
Troque de modelo durante a sessão com o slash command /model, ou defina por execução via --model / -m:
codex -m gpt-5.3-codex-spark "pair with me on this component"
Quanto custa o Codex?
Veja também Seleção de Modelo para capacidades e Frameworks de Decisão para escolher o modelo certo por tarefa.
Acesso via planos do ChatGPT
A disponibilidade do Codex depende do seu plano do ChatGPT e das configurações da organização:53
| Plano | Preço | Acesso ao Codex | Limites de uso (janela de 5 horas) |
|---|---|---|---|
| Free / Go | $0 / $5 | Acesso promocional por tempo limitado | Baixo |
| Plus | $20/mês | CLI local + tarefas na nuvem (2x limites de uso) | 45-225 msgs locais, 10-60 tarefas na nuvem |
| Pro | $200/mês | Processamento prioritário, GPT-5.3-Codex-Spark (2x limites de uso) | 300-1500 msgs locais, 50-400 tarefas na nuvem |
| Business | $30/usuário/mês | Alocação por equipe, VMs maiores na nuvem, SAML SSO (2x limites de uso) | 45-225 msgs locais, 10-60 tarefas na nuvem |
| Enterprise / Edu | Contatar vendas | Alocação personalizada, controles administrativos, logs de auditoria | Escala com créditos |
| Chave API | Baseado em uso | CLI, SDK, apenas IDE (sem recursos de nuvem) | Baseado em tokens |
Tarifas promocionais: o acesso Free/Go e os limites 2x para planos pagos coincidiram com o lançamento do Codex Desktop App (fevereiro de 2026). Esses limites mais altos se aplicam em todas as plataformas — app, CLI, IDE e nuvem. A OpenAI não anunciou uma data de término.17
Custos de créditos
As operações do Codex consomem créditos da alocação do seu plano:
| Operação | Créditos Aprox. | Observações |
|---|---|---|
| Mensagem local (GPT-5.3-Codex) | ~5 | Modelo principal padrão |
| Mensagem local (GPT-5.1-Codex-Mini) | ~1 | 4x mais mensagens por orçamento de créditos |
| Tarefa na nuvem | ~25 | Executada em ambiente gerenciado pela OpenAI |
| Revisão de código (por PR) | ~25 | Via /review ou revisão na nuvem |
Planos Enterprise e Edu escalam créditos conforme a alocação do contrato. Verifique
/statusno TUI para o uso atual.
Cobrança da API
Ao usar o Codex através da API, a OpenAI cobra o uso por token sob a precificação padrão da API da OpenAI para o modelo selecionado (mais quaisquer descontos aplicáveis de cache de prompt). Consulte a página oficial de preços da API para as tarifas atuais.21
Estratégias de otimização de custos
- Use perfis: crie um perfil
fastcomgpt-5.1-codex-miniemodel_reasoning_effort = "low"para tarefas rotineiras - Reserve raciocínio alto: use
xhighapenas para problemas genuinamente difíceis, pois custa de 3 a 5x mais tokens - Use
--ephemeral: pule a persistência de sessão em CI/CD para reduzir overhead - Minimize resumos de raciocínio: defina
model_reasoning_summary = "none"quando não precisar de explicações - Agrupe com modo exec:
codex execevita o overhead do TUI para workflows de automação - Monitore o uso: verifique
/statusno TUI e nos painéis de cobrança da sua organização
Exemplos de custos reais
Custos representativos da API para tarefas comuns (gpt-5.3-codex com precificação padrão, raciocínio medium):
| Tarefa | Tokens de Entrada | Tokens de Saída | Custo Aprox. |
|---|---|---|---|
| Explicar um módulo de 500 linhas | ~15K | ~2K | ~$0,25 |
| Corrigir um teste falhando (1-2 arquivos) | ~30K | ~5K | ~$0,50 |
| Adicionar um novo endpoint de API com testes | ~60K | ~15K | ~$1,10 |
| Refatorar módulo de autenticação (10 arquivos) | ~120K | ~30K | ~$2,25 |
Auditoria completa do repositório via codex exec |
~200K | ~20K | ~$3,00 |
| Tarefa na nuvem: triagem de 20 issues abertas | ~250K | ~40K | ~$4,50 |
Os custos variam conforme o esforço de raciocínio, cache e comprimento da conversa. Use
gpt-5.1-codex-minipara tarefas rotineiras para reduzir custos em ~40-60%. Tokens de entrada em cache são cobrados com desconto.
Overhead oculto de tokens
Cada chamada de ferramenta adiciona tokens além do seu prompt visível:
| Fonte de Overhead | Custo Aprox. |
|---|---|
| System prompt + AGENTS.md | ~2-5K tokens por turno (carregado uma vez, cacheado depois) |
| Definições de ferramentas | ~500 tokens por ferramenta registrada |
Leitura de arquivos (@file) |
Tokens do conteúdo completo do arquivo |
| Definições de ferramentas MCP | ~200-500 tokens por servidor conectado |
| Traces de raciocínio | Variável; xhigh pode adicionar de 3 a 5x de overhead |
Dica avançada: monitore seu uso real via
/statusno TUI. A contagem de tokens inclui todo o overhead, não apenas suas mensagens visíveis. Se os custos surpreenderem você, verifique quantos servidores MCP estão conectados — cada um adiciona definições de ferramentas a cada chamada da API.
Gestão de custos para equipes
| Tamanho da Equipe | Configuração Recomendada | Custo Mensal Esperado |
|---|---|---|
| Desenvolvedor solo | Modelo padrão, raciocínio medium |
$20-80 |
| Equipe pequena (3-5) | Perfis (fast/careful), revisões de código via codex exec |
$200-500 |
| Equipe média (10-20) | Plano Enterprise, limites em requirements.toml, integração com CI |
$1.000-3.000 |
| Organização grande (50+) | Enterprise com controles administrativos, logs de auditoria, orçamentos alocados | Preço personalizado |
Estratégias para controle de custos da equipe:
- Defina requirements.toml para impor limites de modelo e esforço de raciocínio em toda a organização
- Use gpt-5.1-codex-mini para CI/CD — pipelines automatizados raramente precisam de raciocínio máximo
- Orçamento baseado em perfis — defina perfis ci, review e dev com tetos de custo apropriados
- Monitore via OpenTelemetry — implantações enterprise podem exportar telemetria de uso para stacks de observabilidade existentes
Frameworks de Decisão
Quando Usar Cada Superfície
| Cenário | Melhor Superfície | Por quê |
|---|---|---|
| Correção rápida de bug | CLI | Rápido, focado, scriptável |
| Refatoração em múltiplos arquivos | CLI ou App | CLI para patches determinísticos; App para revisão visual de diffs |
| Explorar código desconhecido | CLI | Composabilidade do terminal, integração com grep/find |
| Fluxos de trabalho paralelos | Desktop App | Isolamento com worktrees, gerenciamento de múltiplas tarefas |
| Edição ativa de arquivos | Extensão de IDE | Edições inline, ciclo compacto de compilação e teste |
| Migração de longa duração | Cloud | Executa independentemente, cria PR ao finalizar |
| Automação CI/CD | codex exec |
Não interativo, saída JSON, scriptável |
| Revisão de código | CLI ou App | Comando /review com presets |
| Onboarding de equipe | Desktop App | Visual, guiado, exige menos conhecimento de terminal |
Quando Usar Cada Modo de Sandbox
| Cenário | Modo | Aprovação | Por quê |
|---|---|---|---|
| Explorar código desconhecido | read-only |
untrusted |
Segurança máxima, não é possível quebrar nada |
| Desenvolvimento diário | workspace-write |
on-request |
Bom equilíbrio entre velocidade e segurança |
| Automação confiável | workspace-write |
never |
Rápido, ininterrupto, em sandbox |
| Administração de sistema | danger-full-access |
on-request |
Precisa de acesso total, mas com aprovação humana |
| Pipeline CI/CD | workspace-write |
never |
Automatizado, restrito ao workspace |
Quando Usar Cada Nível de Raciocínio
| Tipo de Tarefa | Raciocínio | Modelo | Perfil |
|---|---|---|---|
| Formatação, linting | low |
gpt-5.1-codex-mini |
fast |
| Codificação padrão | low-medium |
gpt-5.3-codex |
padrão |
| Depuração complexa | high |
gpt-5.3-codex |
careful |
| Auditoria de segurança | xhigh |
gpt-5.3-codex |
careful |
| Prototipagem rápida | low |
gpt-5.3-codex-spark |
fast |
| Migração/refatoração | medium-high |
gpt-5.2-codex |
padrão |
Modo Plan vs Execução Direta
Will Codex need to change more than 3 files?
│
├── YES → Use Plan Mode (/plan)
│ Codex designs the approach BEFORE making changes.
│ You review and approve the plan.
│ Best for: refactors, new features, migrations
│
└── NO → Is the change well-defined?
│
├── YES → Direct execution
│ Just describe the task. Codex executes immediately.
│ Best for: bug fixes, small features, test additions
│
└── NO → Use Plan Mode (/plan)
Let Codex explore and propose an approach first.
Best for: unfamiliar codebases, ambiguous requirements
Modo Steer: Enter vs Tab
| Situação | Use Enter | Use Tab |
|---|---|---|
| Codex está prestes a cometer um erro | Envie a correção imediatamente | |
| Você tem uma tarefa seguinte | Enfileire para depois do trabalho atual | |
| Codex escolheu o arquivo errado | Envie o redirecionamento imediatamente | |
| Você quer ampliar o escopo | Enfileire a adição | |
| Mudança urgente de prioridade | Envie a nova prioridade imediatamente | |
| Contexto não crítico | Enfileire — sem pressa |
Regra geral: Enter = “pare, preste atenção nisso agora.” Tab = “quando terminar, faça isso também.”
Desktop App vs CLI
How do you prefer to work?
│
├── Terminal-first → Use CLI
│ │
│ ├── Single focused task → codex (interactive TUI)
│ ├── Scripted automation → codex exec (non-interactive)
│ └── Quick one-shot → codex exec "prompt" -o result.txt
│
└── Visual/multi-project → Use Desktop App
│
├── Multiple parallel tasks → Multi-thread with worktree isolation
├── Visual diff review → Built-in Git diff viewer
├── Scheduled automation → Automations tab
└── Voice-driven → Ctrl+M for voice dictation
| Capacidade | CLI | Desktop App |
|---|---|---|
| Sessões interativas | Sim | Sim |
| Agentes paralelos | Manual (múltiplos terminais) | Integrado (isolamento com worktrees) |
| Revisão de diffs | /diff (texto) |
Diffs visuais inline |
| Automações | Cron + codex exec |
Agendador com interface gráfica |
| Entrada por voz | Não | Sim (Ctrl+M) |
| Integração CI/CD | codex exec + GitHub Action |
Não |
| Sincronização de sessão | Sim | Sim (compartilhada com CLI) |
Qual Perfil Usar?
Associe sua tarefa a um perfil pré-configurado:
| Tipo de Tarefa | Perfil | Configurações Principais |
|---|---|---|
| Perguntas rápidas, formatação | fast |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low" |
| Desenvolvimento diário | (padrão) | model = "gpt-5.3-codex", model_reasoning_effort = "medium" |
| Arquitetura, segurança | careful |
model = "gpt-5.3-codex", model_reasoning_effort = "xhigh" |
| Pareamento em tempo real | pair |
model = "gpt-5.3-codex-spark", model_reasoning_effort = "high" |
| Automação CI/CD | ci |
model = "gpt-5.1-codex-mini", model_reasoning_effort = "low", sandbox_mode = "workspace-write" |
Configuração do config.toml:
# Default profile
profile = "default"
[profiles.fast]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
[profiles.careful]
model = "gpt-5.3-codex"
model_reasoning_effort = "xhigh"
[profiles.pair]
model = "gpt-5.3-codex-spark"
model_reasoning_effort = "high"
[profiles.ci]
model = "gpt-5.1-codex-mini"
model_reasoning_effort = "low"
sandbox_mode = "workspace-write"
Alternar perfis por sessão: codex --profile careful
Como funciona o sistema de sandbox e aprovação?
O Codex usa um modelo de segurança em duas camadas que separa o que é tecnicamente possível de quando o Codex solicita aprovação humana. A abordagem difere fundamentalmente do sistema de permissões do Claude Code — o Codex aplica restrições no nível do kernel do sistema operacional.5 Veja também Implantação empresarial para restrições de requirements.toml que administradores aplicam em toda a organização.
Camada 1: Sandbox (o que é possível)
O sandbox controla o acesso ao sistema de arquivos e à rede usando mecanismos nativos do sistema operacional:
| Modo | Acesso a arquivos | Rede | Implementação |
|---|---|---|---|
read-only |
Somente leitura em todo lugar | Bloqueada | Mais restritivo; mutações precisam de aprovação explícita |
workspace-write |
Leitura/escrita no workspace + /tmp |
Bloqueada por padrão | Desenvolvimento normal; padrão seguro |
danger-full-access |
Acesso total à máquina | Habilitada | Capacidade máxima; use com cautela |
Aplicação específica por plataforma:
- macOS: Framework Seatbelt da Apple via
sandbox-execcom perfis específicos por modo compilados em tempo de execução e aplicados pelo kernel6 - Linux: Landlock para restrições de sistema de arquivos + seccomp para filtragem de syscalls. Um processo auxiliar independente (
codex-linux-sandbox) fornece isolamento com defesa em profundidade.5 Bubblewrap (bwrap) é incluído e compilado como parte do build Linux (promovido de opcional na v0.100.0)7 - Windows: Sandbox nativo com tokens restritos (promovido de experimental na v0.100.0). WSL também é suportado (herda Linux Landlock + seccomp)
Por que isso importa: Diferente de sandboxing baseado em contêiner (Docker), sandboxing no nível do sistema operacional é mais rápido, mais leve e mais difícil de escapar. O kernel aplica as restrições antes mesmo do Codex ver a chamada de sistema.
Correções de segurança:
- Bypass de sandbox por fork do zsh (v0.106.0): Corrigida uma vulnerabilidade onde a execução de shell via fork do zsh poderia contornar as restrições do sandbox.62 Se você está em uma versão anterior, atualize imediatamente.
- Limite de tamanho de entrada (v0.106.0): O Codex agora aplica um limite de aproximadamente 1 milhão de caracteres na entrada para prevenir travamentos causados por payloads excessivamente grandes.62
- Sistema de arquivos /dev no Linux (v0.105.0): Comandos em sandbox no Linux agora recebem um sistema de arquivos /dev mínimo, melhorando a compatibilidade com ferramentas que esperam nós de dispositivo.63
Política ReadOnlyAccess (v0.100.0+): Uma forma de política configurável para controle granular de acesso de leitura. Use-a para restringir de quais diretórios o Codex pode ler, mesmo no modo workspace-write:
[sandbox_workspace_write]
read_only_access = ["/etc", "/usr/local/share"] # Only these paths readable outside workspace
Camada 2: Política de aprovação (quando perguntar)
A política de aprovação determina quando o Codex pausa para solicitar confirmação humana:
| Política | Comportamento | Caso de uso |
|---|---|---|
untrusted |
Executa automaticamente leituras seguras; solicita aprovação para todo o resto | Maior barreira de confiança; repositórios desconhecidos |
on-failure |
Executa automaticamente até algo falhar, depois solicita aprovação | Semi-automatizado; captura erros |
on-request |
Aprova dentro do sandbox; solicita aprovação para violações de limite | Padrão; bom equilíbrio |
never |
Sem solicitações de aprovação | CI/CD, automação confiável |
IDs de aprovação distintos (v0.104.0+)
O Codex agora atribui IDs de aprovação distintos a cada comando dentro de uma execução de shell em múltiplas etapas. Isso significa que as aprovações são granulares — aprovar um comando em uma sequência não aprova automaticamente os subsequentes na mesma invocação de shell.51
Controles de aprovação flexíveis (v0.105.0+)
O fluxo de aprovação agora suporta permissões extras de sandbox e rejeição granular:63
- Permissões extras de sandbox: Quando um comando precisa de acesso além do modo de sandbox atual, o Codex pode solicitar permissões adicionais específicas em vez de exigir uma mudança completa de modo
- Rejeição granular: Rejeite chamadas de ferramentas individuais com feedback para que o Codex possa ajustar sua abordagem em vez de simplesmente tentar novamente o mesmo comando
O flag --full-auto
--full-auto é um atalho conveniente para:
codex --sandbox workspace-write --ask-for-approval on-request
Ponto crítico de atenção: --full-auto sobrescreve qualquer valor explícito de --sandbox. Se você passar --full-auto --sandbox read-only, obterá workspace-write porque --full-auto tem precedência.8
Configurações recomendadas
Desenvolvimento diário (padrão seguro):
sandbox_mode = "workspace-write"
approval_policy = "on-request"
Usuário avançado (acesso total, humano no controle):
sandbox_mode = "danger-full-access"
approval_policy = "untrusted"
A combinação é o “ponto ideal” recomendado pela comunidade: capacidade máxima, mas aprovação necessária para cada comando.9
Automação CI/CD:
sandbox_mode = "workspace-write"
approval_policy = "never"
Habilitando acesso à rede
O Codex bloqueia o acesso à rede por padrão no modo workspace-write. Habilite quando necessário:
# Per-run
codex -c 'sandbox_workspace_write.network_access=true' "install the packages"
# In config.toml
[sandbox_workspace_write]
network_access = true
writable_roots = ["/path/to/extra/dir"] # Additional writable directories
exclude_slash_tmp = false # Prevent /tmp from being writable
exclude_tmpdir_env_var = false # Prevent $TMPDIR from being writable
Suporte a proxy WebSocket (v0.104.0+)
Para ambientes corporativos que roteiam tráfego WebSocket por um proxy, o Codex agora suporta as variáveis de ambiente WS_PROXY e WSS_PROXY:51
export WSS_PROXY="https://proxy.corp.example.com:8443"
codex "update the README"
Estas complementam o suporte existente a proxy HTTPS_PROXY e SOCKS5 (v0.93.0+), cobrindo todas as camadas de transporte.
Testando o sandbox
Verifique o comportamento do sandbox antes de confiar nele:
codex sandbox macos --full-auto -- ls /etc/passwd # macOS test
codex sandbox linux --full-auto -- cat /etc/shadow # Linux test
Se o sandbox estiver funcionando corretamente, ambos os comandos devem falhar com um erro de permissão negada — o sandbox impede a leitura de arquivos sensíveis do sistema mesmo no modo --full-auto. Se algum dos comandos tiver sucesso, a configuração do seu sandbox precisa ser investigada.
Como funciona o AGENTS.md?
AGENTS.md é o sistema de instruções de projeto do Codex — um padrão aberto10 agora governado pela Agentic AI Foundation da Linux Foundation. Suportado por Codex, Cursor, Copilot, Amp, Jules (Google), Gemini CLI, Windsurf, Cline, Aider, Zed, Factory, RooCode e mais de 60.000 projetos open source. Ele define como o Codex se comporta dentro de um repositório ou diretório específico. Veja Skills para pacotes de expertise reutilizáveis que complementam o AGENTS.md.
Hierarquia de descoberta
O Codex constrói uma cadeia de instruções no início da sessão percorrendo a árvore de diretórios:
- Global (
~/.codex/):AGENTS.override.md>AGENTS.md - Projeto (raiz do git até o diretório atual): Cada nível é verificado para
AGENTS.override.md>AGENTS.md> nomes de arquivo alternativos - Mesclagem: Os arquivos são concatenados da raiz para baixo; arquivos mais próximos aparecem depois no prompt e sobrescrevem orientações anteriores
~/.codex/AGENTS.md ← Global defaults
└─ /repo/AGENTS.md ← Project-wide rules
└─ /repo/services/AGENTS.md ← Service-specific rules
└─ /repo/services/payments/
AGENTS.override.md ← Overrides everything above for this dir
O que faz um ótimo AGENTS.md
Baseado em orientação direta do próprio Codex e padrões da comunidade11:
FAÇA:
- Seja específico: "Use rg --files for discovery" é melhor que "search efficiently"
- Defina conclusão: O que significa “pronto”? (testes passando, lint limpo, etc.)
- Inclua comandos: Build, teste, lint, formatação (invocações exatas)
- Organize por tarefa: Seções de codificação, revisão, release, incidente/debug
- Defina escalação: O que fazer quando bloqueado ou encontrando estado inesperado
NÃO FAÇA: - Despejar guias de estilo inteiros sem regras de execução - Usar diretivas ambíguas (“tenha cuidado,” “otimize”) - Misturar prioridades contraditórias (velocidade + verificação exaustiva + sem orçamento de runtime) - Escrever documentação em prosa (AGENTS.md é política operacional, não README)
Exemplo: AGENTS.md de produção
# Repository Guidelines
## Build, Test, and Development Commands
- Run API (dev): `python3 -m uvicorn main:app --reload`
- Install deps: `pip install -r requirements.txt`
- Lint: `python3 -m ruff check .` (auto-fix: `--fix`)
- Format: `python3 -m ruff format .`
- Tests: `python3 -m pytest -v`
- Coverage: `python3 -m pytest --cov=app --cov-report=term-missing`
## Coding Style & Naming Conventions
- Python 3.11+. Type hints on all functions.
- Ruff enforced: 88-char lines, double quotes, spaces for indent.
- Naming: modules `snake_case.py`, classes `PascalCase`, functions `snake_case`.
## Commit & Pull Request Guidelines
- Conventional Commits: `feat:`, `fix:`, `docs:`, `refactor:`, `chore:`, `test:`
- Commits should be small and focused.
- PRs must include: description, test plan, and screenshots for UI changes.
## Segurança
- Nunca faça commit de segredos. Use `.env` para configuração local.
- Valide todas as chamadas externas de API com tratamento de erros adequado.
O mecanismo de substituição
AGENTS.override.md em qualquer nível de diretório substitui o AGENTS.md normal para aquele escopo. Use para:
- Congelamento de releases: “Nenhum recurso novo, apenas correções”
- Modo de incidente: “Todas as alterações devem ser revisadas pelo plantonista”
- Endurecimento temporário: “Nenhuma atualização de dependência nesta sprint”
Configuração
# Custom fallback filenames (in addition to AGENTS.md)
project_doc_fallback_filenames = ["TEAM_GUIDE.md", ".agents.md"]
# Increase max size for large instruction files
project_doc_max_bytes = 65536 # 64 KiB (default: 32 KiB)
Geração de scaffold
codex # Launch TUI
/init # Generate AGENTS.md scaffold
Ou verifique sua cadeia de instruções:
codex --ask-for-approval never "Summarize your current instructions"
Hooks
O Codex adicionou hooks na v0.99.0 (AfterAgent) e v0.100.0 (AfterToolUse). O sistema de hooks está em estágio inicial comparado aos mais de 12 eventos de ciclo de vida do Claude Code, mas fornece pontos de entrada de automação para fluxos de trabalho comuns.
Eventos de hook disponíveis
| Evento | Quando é disparado | Adicionado |
|---|---|---|
AfterAgent |
Após o agente completar um turno completo | v0.99.0 |
AfterToolUse |
Após cada chamada individual de ferramenta ser concluída | v0.100.0 |
Configuração de hooks
Os hooks são configurados em .codex/config.toml:
[[hooks]]
event = "AfterToolUse"
command = "echo 'Tool completed' >> /tmp/codex-log.txt"
Replicando padrões de hooks do Claude Code
Se estiver migrando do Claude Code, veja como obter automação semelhante sem o conjunto completo de eventos de hook:
| Padrão do Claude Code | Alternativa no Codex |
|---|---|
Bloqueio de arquivos com PreToolUse |
Instruções no AGENTS.md + modo sandbox read-only |
Linting com PostToolUse |
Hook AfterToolUse executando seu linter |
Injeção de contexto no SessionStart |
AGENTS.md (carregado automaticamente em cada sessão) |
Notificação no SubagentStop |
Hook AfterAgent com script de notificação |
| Hooks assíncronos | Ainda não suportado; use tarefas Cloud para trabalho em segundo plano |
Dica de especialista: O sistema de hooks está em expansão ativa. Consulte o changelog do Codex para novos eventos de hook em cada release.
O que é MCP (Model Context Protocol)? [EXPERIMENTAL]
O MCP estende as capacidades do Codex conectando-o a ferramentas e serviços externos. O grupo de comandos codex mcp está atualmente marcado como experimental, e os comandos e formato de configuração podem mudar entre releases. O Codex suporta dois tipos de transporte: STDIO (processos locais) e Streamable HTTP (servidores remotos).12
Configurando servidores MCP
Servidores STDIO (processos locais):
# In ~/.codex/config.toml or .codex/config.toml
[mcp_servers.context7]
enabled = true
required = true # Fail startup if unavailable
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
env = { "MY_VAR" = "value" } # Static env vars
env_vars = ["PATH", "HOME"] # Forward host env vars
cwd = "/path/to/project" # Optional working directory
startup_timeout_sec = 10
tool_timeout_sec = 60
enabled_tools = ["search", "summarize"] # Tool allowlist
disabled_tools = ["slow-tool"] # Tool denylist
Servidores HTTP (remotos):
[mcp_servers.figma]
enabled = true
url = "https://mcp.figma.com/mcp"
bearer_token_env_var = "FIGMA_OAUTH_TOKEN"
http_headers = { "X-Figma-Region" = "us-east-1" }
env_http_headers = { "X-Org-Id" = "FIGMA_ORG_ID" } # Headers from env vars
startup_timeout_sec = 10
tool_timeout_sec = 60
Gerenciamento de CLI
codex mcp add context7 -- npx -y @upstash/context7-mcp
codex mcp add context7 --env API_KEY=... -- npx -y @upstash/context7-mcp # With env vars
codex mcp add figma --url https://mcp.figma.com/mcp --bearer-token-env-var FIGMA_OAUTH_TOKEN
codex mcp list # List all configured servers
codex mcp list --json # JSON output
codex mcp get context7 # Show server config
codex mcp get context7 --json # JSON output
codex mcp login <server> # OAuth flow for HTTP servers
codex mcp logout <server> # Remove OAuth credentials
codex mcp remove <server> # Delete server definition
Na sessão: /mcp mostra os servidores ativos e as ferramentas disponíveis.
Executando o Codex COMO um servidor MCP
O Codex pode se expor como um servidor MCP para orquestração multi-agente:13
codex mcp-server # Start as MCP server (stdio transport)
O servidor expõe duas ferramentas:
1. codex(): Inicia uma nova sessão com parâmetros de prompt, sandbox, modelo e aprovação
2. codex-reply(): Continua uma sessão existente com threadId e prompt
Uso com o Agents SDK (Python):
from agents import Agent, Runner
from agents.mcp import MCPServerStdio
async with MCPServerStdio(
name="Codex CLI",
params={"command": "npx", "args": ["-y", "codex", "mcp-server"]},
client_session_timeout_seconds=360000,
) as codex_mcp_server:
agent = Agent(name="Developer", mcp_servers=[codex_mcp_server])
result = await Runner.run(agent, "Fix the failing tests")
Servidores MCP notáveis
| Servidor | Finalidade | Instalação |
|---|---|---|
| Context7 | Documentação atualizada de bibliotecas | npx -y @upstash/context7-mcp |
| Figma | Acesso a arquivos de design | HTTP: https://mcp.figma.com/mcp |
| Playwright | Automação de navegador | npx -y @anthropic/mcp-playwright |
| Sentry | Monitoramento de erros | HTTP: https://mcp.sentry.dev/mcp |
| GitHub | Operações de repositório | npx -y @anthropic/mcp-github |
Padrões práticos
Padrão 1: Desenvolvimento com consciência de contexto — Combine o Context7 com a documentação do seu framework para que o Codex sempre tenha referências atualizadas de API:
[mcp_servers.context7]
enabled = true
required = true
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
Padrão 2: Limites de saída — As respostas de ferramentas MCP são truncadas em ~25K caracteres por padrão. Para ferramentas que retornam payloads grandes (consultas de banco de dados, capturas de log), use enabled_tools para restringir a ferramentas específicas e manter as respostas focadas.
Padrão 2a: Saída multimodal de ferramentas (v0.107.0) — Ferramentas customizadas agora podem retornar saída multimodal (imagens, conteúdo rico) junto com texto. Isso permite que ferramentas que produzem artefatos visuais — capturas de tela, diagramas, renderizações de gráficos — os passem diretamente ao modelo para análise.64
Padrão 3: Governança corporativa de MCP — Restrinja quais servidores MCP os desenvolvedores podem usar via requirements.toml:
# In /etc/codex/requirements.toml — only approved servers allowed
[mcp_servers.approved-internal]
identity = { command = "npx @company/internal-mcp" }
Qualquer servidor que não corresponda a uma identidade em requirements.toml será bloqueado na inicialização. Consulte Implantação corporativa para a configuração completa de políticas.
Runtime REPL de JavaScript [EXPERIMENTAL]
O Codex v0.100.0 adicionou um runtime REPL experimental de JavaScript (js_repl) que persiste estado entre chamadas de ferramentas. Na v0.106.0, o REPL foi promovido ao slash command /experimental com verificações de compatibilidade na inicialização — ele requer Node.js 22.22.0 ou posterior.62
Habilitando o JS REPL:
# In config.toml
[features]
js_repl = true
Ou ative durante a sessão via /experimental no TUI.
Exemplo de uso: Quando habilitado, o Codex pode manter estado entre chamadas de ferramentas dentro de uma sessão:
// Codex can accumulate data across multiple tool calls
const results = await fetchTestResults();
const failures = results.filter(r => r.status === "failed");
console.log(`${failures.length} failures out of ${results.length} tests`);
// Variable 'failures' persists and is available in subsequent tool calls
Requisitos: Node.js 22.22.0+ (verificações de inicialização confirmam a compatibilidade). A v0.105.0 adicionou relatórios de erros aprimorados e recuperação para falhas do REPL.63
Este recurso é experimental. A interface pode mudar entre releases.
O que são Skills?
Skills são pacotes de capacidades reutilizáveis e específicos para tarefas que o Codex carrega sob demanda. Eles seguem o padrão aberto de skills para agentes.14
Estrutura de uma skill
my-skill/
SKILL.md (required: instructions)
scripts/ (optional: executable scripts)
references/ (optional: reference docs)
assets/ (optional: images, icons)
agents/openai.yaml (optional: metadata, UI, dependencies)
Locais de descoberta
O Codex armazena skills instaladas pelo usuário em $CODEX_HOME/skills (padrão: ~/.codex/skills), incluindo skills de sistema integradas em .system/. O Codex suporta pastas de skills com links simbólicos.
| Escopo | Caminho |
|---|---|
| Projeto/equipe | Pastas de skills do repositório (o layout pode variar por versão) |
| Usuário | ~/.codex/skills/ (ou $CODEX_HOME/skills/) |
| Administrador | /etc/codex/skills/ |
| Sistema | Incluídas pela OpenAI (em ~/.codex/skills/.system/) |
Criando uma skill
Formato do SKILL.md:
---
name: security-audit
description: Run a thorough security audit on the codebase.
---
## Procedimento de auditoria de segurança
1. Escaneie segredos hardcoded usando `rg -i "(api_key|password|secret|token)\s*=" --type py`
2. Verifique injeção de SQL: procure interpolação de strings em consultas
3. Valide a validação de entrada em todos os endpoints API
4. Verifique vulnerabilidades de dependências: `pip audit` ou `npm audit`
5. Revise os padrões de autenticação e autorização
6. Reporte as descobertas com níveis de severidade (Crítico/Alto/Médio/Baixo)
Metadados (agents/openai.yaml):
interface:
display_name: "Security Audit"
short_description: "Full codebase security review"
icon_small: "./assets/shield.svg"
brand_color: "#DC2626"
default_prompt: "Run a security audit on this repository"
policy:
allow_implicit_invocation: false # Require explicit $skill
dependencies:
tools:
- type: "mcp"
value: "snyk"
transport: "streamable_http"
url: "https://mcp.snyk.io/mcp"
Invocando skills
- Explícita: menu
/skillsou menção$skill-nameno prompt - Implícita: Codex detecta automaticamente skills correspondentes a partir da descrição da tarefa (se
allow_implicit_invocation: true) - Criador: Use
$skill-creatorpara construir interativamente uma nova skill - Instalador: Use
$skill-installer install <name>para instalar skills da comunidade
Ativar/Desativar
[[skills.config]]
path = "/path/to/skill/SKILL.md"
enabled = false
Skills vs slash commands
| Skills | Slash Commands | |
|---|---|---|
| Definido em | Arquivos SKILL.md com metadados opcionais |
Incorporado no binário Codex CLI |
| Escopo | Nível de projeto, usuário ou administrador | Global (sempre disponível) |
| Invocação | $skill-name no prompt, menu /skills ou detecção implícita |
Sintaxe /command |
| Personalizável | Totalmente — você escreve as instruções | Comportamento fixo |
| Dependências | Pode declarar requisitos de servidor MCP | Nenhuma |
| Compartilhamento | Copie a pasta da skill para o repositório da equipe ou ~/.codex/skills/ |
Não compartilhável |
Depurando skills
Se uma skill não está sendo ativada:
- Verifique a descoberta:
/skillsdeve listá-la no TUI - Verifique o caminho: Certifique-se de que a pasta da skill está em um local reconhecido (
~/.codex/skills/, raiz do projeto ou/etc/codex/skills/) - Verifique
enabled: Skills comenabled = falseno config.toml não serão carregadas - Verifique a ativação implícita: Se depender da detecção automática, certifique-se de que
allow_implicit_invocation: trueestá noagents/openai.yaml - Use palavras-chave: Inclua os termos da
descriptionda skill no seu prompt para melhorar a correspondência implícita
Exemplo de produção: skill de deploy
Uma skill completa com múltiplos arquivos mostrando referências e scripts trabalhando juntos:
deploy-skill/
SKILL.md
references/
runbook.md
rollback-checklist.md
scripts/
pre-deploy-check.sh
smoke-test.sh
agents/openai.yaml
SKILL.md:
---
name: deploy
description: Deploy the application to staging or production. Runs pre-flight checks, executes deployment, and verifies with smoke tests.
---
## Deployment Procedure
### Pre-flight
1. Run `scripts/pre-deploy-check.sh` to verify:
- All tests pass
- No uncommitted changes
- Branch is up to date with remote
2. Review the runbook at `references/runbook.md` for environment-specific steps.
### Deploy
3. Execute the deployment command for the target environment.
4. Monitor logs for errors during rollout.
### Verify
5. Run `scripts/smoke-test.sh <environment-url>` to confirm critical paths.
6. If smoke tests fail, follow `references/rollback-checklist.md`.
Invoque com: $deploy to staging ou $deploy production with canary rollout
Modo plan e colaboração
O modo plan permite que o Codex projete uma abordagem antes de executar alterações. Ele é habilitado por padrão (desde a v0.94.0).15 Consulte Frameworks de decisão para a árvore de decisão “Modo plan vs execução direta”.
Entrando no modo plan
/plan # Switch to plan mode
/plan "redesign the API layer" # Plan mode with initial prompt
No modo plan, o Codex: - Lê arquivos e analisa a base de código - Propõe um plano de implementação - Não faz alterações até que você aprove - Transmite o plano em uma visualização dedicada no TUI
Modo steer
O modo steer (habilitado por padrão desde a v0.98.0) permite que você injete novas instruções enquanto o Codex está trabalhando ativamente, sem interromper a tarefa atual.15
Existem dois métodos de injeção:
| Entrada | Comportamento | Quando usar |
|---|---|---|
| Enter | Envia instruções imediatamente; o Codex as vê durante o turno atual | Correções urgentes (“pare — não modifique esse arquivo”), esclarecimentos (“a configuração está em /etc/app.conf, não no caminho padrão”) ou mudanças de prioridade (“foque nos testes primeiro”) |
| Tab | Enfileira instruções para o próximo turno; o Codex termina o trabalho atual primeiro | Tarefas de acompanhamento (“depois disso, atualize também o changelog”), adições de escopo (“quando terminar, execute o linter”) ou contexto não urgente (“o alvo do deploy é staging, não prod”) |
Exemplos práticos:
# Codex is refactoring the auth module...
[Enter] "Use bcrypt instead of argon2 — we already have it as a dependency"
→ Codex adjusts immediately, mid-turn
[Tab] "Once auth is done, update the migration script too"
→ Codex finishes auth refactor, then starts the migration
O modo steer está sempre ativo no TUI. Se você preferir esperar até que o Codex termine antes de dar instruções, basta digitar normalmente após o turno ser concluído — nenhum modo especial é necessário.
Melhorias no TUI (v0.105.0–v0.106.0)
Destaque de sintaxe (v0.105.0): O TUI agora destaca blocos de código cercados e diffs inline com sintaxe colorida. Use /theme para escolher um esquema de cores.63
Novos comandos do TUI (v0.105.0+):63
| Comando / Tecla | Descrição |
|---|---|
/copy |
Copia a última resposta para a área de transferência |
/clear |
Limpa a tela do TUI |
Ctrl+L |
Limpa a tela (atalho de teclado) |
/theme |
Altera o esquema de cores do destaque de sintaxe |
Transcrição por voz (v0.105.0, experimental): Pressione a barra de espaço para ditar prompts via transcrição de voz. Este recurso é experimental e pode exigir permissões de microfone.63 A partir da v0.107.0, sessões de voz em tempo real suportam seleção de dispositivo de microfone e alto-falante, permitindo que você escolha hardware específico de entrada/saída de áudio.64
Outras melhorias:
- Links longos agora permanecem clicáveis mesmo quando quebrados em múltiplas linhas no TUI (v0.105.0)63
- Links de arquivos locais são renderizados com formatação aprimorada (v0.106.0)62
- O tratamento de Ctrl+C para subagentes foi corrigido para encerrar adequadamente os processos filhos (v0.106.0)62
Sistema de memória
O Codex possui um sistema de memória persistente (v0.100.0+) que armazena fatos, preferências e contexto de projeto entre sessões.25
Comandos de memória
| Comando | Descrição |
|---|---|
/m_update <fact> |
Salva uma memória (ex.: /m_update always use pytest, never unittest) |
/m_drop <query> |
Remove uma memória correspondente à consulta |
As memórias são armazenadas em arquivos markdown em ~/.codex/memory/. O Codex as carrega no início da sessão e as utiliza para orientar o comportamento em todas as sessões futuras.
O que armazenar
As memórias funcionam melhor para preferências persistentes e fatos do projeto:
- Convenções do projeto: “Este projeto usa tabs, não espaços” ou “Respostas API sempre incluem um campo
meta“ - Preferências de ferramentas: “Use
pnpmem vez denpm” ou “Execute testes compytest -x --tb=short“ - Decisões de arquitetura: “O módulo de autenticação está em
src/core/auth/, não emsrc/middleware/“ - Preferências de workflow: “Sempre execute o linter antes de me mostrar um diff”
Memória em pipelines
Ao executar codex exec, as memórias são carregadas automaticamente. Isso significa que pipelines de CI/CD e scripts se beneficiam do mesmo contexto das sessões interativas — sem necessidade de repetir instruções a cada invocação.
Refinamentos de memória (v0.101.0–v0.107.0)
- Sanitização de segredos: As memórias são automaticamente escaneadas em busca de segredos antes de serem gravadas em disco
- Consciência de CWD: Os arquivos de memória agora incluem o contexto do diretório de trabalho para recuperação específica do projeto
- Exclusão de mensagens do desenvolvedor: Mensagens de desenvolvedor/sistema são excluídas da entrada de memória da fase 1, melhorando a qualidade da memória ao focar nas interações do usuário
- Esquecimento baseado em diff (v0.106.0): A memória agora utiliza esquecimento baseado em diff para remover fatos obsoletos, mantendo o armazenamento de memória enxuto e relevante ao longo do tempo62
- Seleção consciente de uso (v0.106.0): A recuperação de memória agora é consciente de uso, priorizando memórias acessadas frequentemente e recentemente relevantes62
- Memórias configuráveis (v0.107.0): As memórias agora são totalmente configuráveis. Use
codex debug clear-memoriespara redefinir todas as memórias armazenadas para um estado limpo — útil ao alternar contextos entre projetos não relacionados ou quando o estado da memória divergiu64
Memória vs AGENTS.md
| Caso de uso | Memória (/m_update) |
AGENTS.md |
|---|---|---|
| Preferências pessoais | Use memória (persiste em todos os projetos) | Não apropriado |
| Convenções do projeto | Ambos (memória para referência pessoal, AGENTS.md para compartilhar com a equipe) | AGENTS.md para a equipe |
| Decisões de arquitetura | AGENTS.md (contexto compartilhado) | Escolha principal |
| Comandos de ferramentas | Memória (referência pessoal rápida) | AGENTS.md para a equipe |
Dica: Use
/m_updatepara fatos que devem persistir indefinidamente. Para contexto específico da sessão, basta informar o Codex diretamente na conversa. Para contexto compartilhado da equipe, use AGENTS.md.
Gerenciamento de sessões
O Codex persiste sessões em ~/.codex/sessions/, permitindo retomada, fork e fluxos de trabalho multi-thread entre CLI e interfaces desktop.
Retomar
Continue de onde parou:
codex resume # Interactive picker (sorted by recency)
codex resume <SESSION_ID> # Resume a specific session
codex exec resume --last "continue" # Non-interactive: resume most recent
O comando /resume dentro do TUI abre o mesmo seletor interativo com busca.
Fork
Ramifique uma conversa para explorar alternativas sem perder o progresso atual:
/fork # Fork current conversation
/fork "try a different approach" # Fork with new prompt
Forks criam threads independentes que compartilham o mesmo histórico até o ponto do fork. Alterações em um fork não afetam o outro. Isso é útil para comparar abordagens (por exemplo, “fork e tentar Redis em vez de Memcached”) ou explorar mudanças arriscadas com segurança.
Fork de threads em sub-agentes (v0.107.0): Threads agora podem ser bifurcadas em sub-agentes independentes, permitindo que uma conversa gere fluxos de trabalho paralelos que executam de forma autônoma. Isso estende o modelo de fork existente — em vez de apenas ramificar a conversa, a thread bifurcada se torna um sub-agente com seu próprio contexto de execução.64
Listagem de threads
Visualize e gerencie sessões ativas:
/status # Current session info and token usage
/ps # Show background terminals in session
No aplicativo desktop, as threads são visíveis na barra lateral com histórico completo e pré-visualização de diffs.
Ciclo de vida da sessão
| Ação | CLI | Aplicativo desktop |
|---|---|---|
| Iniciar nova | codex ou /new |
Botão New Thread |
| Retomar | codex resume ou /resume |
Clique na thread na barra lateral |
| Fork | /fork |
Clique com botão direito na thread → Fork |
| Encerrar | /quit ou Ctrl+C |
Feche a aba da thread |
| Excluir | Remova de ~/.codex/sessions/ |
Clique com botão direito → Delete |
As sessões sincronizam entre CLI e o aplicativo desktop — comece em um, continue no outro.
Modo não interativo (codex exec)
codex exec executa o Codex de forma não interativa para scripts, CI/CD e automação.16
Uso básico
codex exec "summarize the repository structure"
codex exec --full-auto "fix the CI failure"
codex exec --json "triage open bugs" -o result.txt
Por padrão, codex exec envia progresso/eventos para stderr e a mensagem final do agente para stdout. O design o torna componível com pipelines Unix padrão.
Saída em linhas JSON
Com --json, stdout se torna um fluxo de eventos JSONL:
codex exec --json "fix the tests" | jq
Tipos de evento: thread.started, turn.started/completed/failed, item.started/completed, error
{"type":"thread.started","thread_id":"019c5c94-..."}
{"type":"turn.started"}
{"type":"item.started","item":{"id":"item_1","type":"command_execution","status":"in_progress"}}
{"type":"item.completed","item":{"id":"item_3","type":"agent_message","text":"..."}}
{"type":"turn.completed","usage":{"input_tokens":24763,"cached_input_tokens":24448,"output_tokens":122}}
Saída estruturada
Imponha o formato da resposta com JSON Schema:
codex exec "Extract project metadata" \
--output-schema ./schema.json \
-o ./project-metadata.json
-o / --output-last-message grava a mensagem final em um arquivo.
Retomada e revisão de sessão
codex exec resume --last "continue where you left off"
codex exec resume <SESSION_ID> "fix the remaining issues"
codex exec review --base main # Code review against a branch
Flags principais
| Flag | Descrição |
|---|---|
--full-auto |
Sandbox workspace-write + aprovação on-request |
--json |
Fluxo de eventos JSONL para stdout |
-o, --output-last-message <file> |
Salva a mensagem final em um arquivo |
--output-schema <file> |
Valida a resposta contra JSON Schema |
--ephemeral |
Não persiste arquivos de sessão |
-C, --cd <dir> |
Define o diretório de trabalho |
--add-dir <dir> |
Diretórios graváveis adicionais |
--skip-git-repo-check |
Permite execução fora de repositórios git |
--dangerously-bypass-approvals-and-sandbox |
Sem sandbox, sem aprovações (apenas CI) |
Autenticação em CI
codex exec suporta CODEX_API_KEY para autenticação não interativa em ambientes de automação.
Codex Cloud e tarefas em segundo plano [EXPERIMENTAL]
Status: Codex Cloud é um recurso experimental. Interfaces, preços e disponibilidade podem mudar. A OpenAI gerencia os ambientes na nuvem, e você não controla a infraestrutura.
O Codex Cloud executa tarefas de forma assíncrona em ambientes gerenciados pela OpenAI.4 Consulte também GitHub Action e CI/CD para integrar o Codex ao seu pipeline de CI.
Como funciona
- Envie uma tarefa (via chatgpt.com/codex, integração com Slack ou CLI)
- O Codex clona seu repositório em um sandbox isolado na nuvem
- O agente trabalha de forma independente: lê código, executa testes, faz alterações
- Quando termina, o Codex cria um PR ou fornece um diff para revisão
- Aplique os resultados localmente com
codex apply <TASK_ID>
Acesso à internet na nuvem
O acesso à internet do agente está desativado por padrão e é configurado por ambiente:
- Desativado: Sem acesso à internet para o agente (padrão)
- Ativado: Lista de domínios permitidos opcional + restrições de métodos HTTP
Allowed domains: pypi.org, npmjs.com, github.com
Allowed methods: GET, HEAD, OPTIONS
Scripts de configuração ainda podem usar a internet para instalar dependências, mesmo quando o acesso à internet do agente está desativado.
Integração com Slack
Mencione @Codex em um canal ou thread do Slack para iniciar uma tarefa na nuvem.
Pré-requisitos: 1. Plano elegível do ChatGPT (Plus, Pro, Business, Enterprise ou Edu) 2. Conta GitHub conectada 3. Pelo menos um ambiente de nuvem configurado 4. Aplicativo Slack instalado no seu workspace
O Codex responde com um link para a tarefa e publica os resultados quando concluídos.
CLI na nuvem
codex cloud exec --env <ENV_ID> "Fix failing tests" # Start a cloud task
codex cloud status <TASK_ID> # Check task progress
codex cloud diff <TASK_ID> # View task diff
codex cloud list # List recent tasks
codex cloud list --json # JSON output
codex cloud apply <TASK_ID> # Apply from cloud subcommand
codex apply <TASK_ID> # Apply diff (top-level shortcut)
## O Codex Desktop App
O Codex desktop app (somente macOS, Apple Silicon) oferece uma interface gráfica otimizada para gerenciamento de múltiplos projetos.[^17]
### Instalação
```bash
codex app # Auto-downloads and installs on first run
Ou baixe diretamente: Codex.dmg
Recursos principais
| Recurso | Descrição |
|---|---|
| Threads paralelas | Execute múltiplas tarefas em projetos simultaneamente |
| Modos de thread | Inicie threads em modo Local, Worktree ou Cloud |
| Ferramentas Git integradas | Revise diffs, adicione comentários, organize/reverta trechos, faça commit/push, crie PRs |
| Terminal integrado | Terminal por thread (Cmd+J) |
| Ditado por voz | Envie prompts por voz (Ctrl+M) |
| Automações | Agende tarefas recorrentes |
| Notificações | Notificações de conclusão/aprovação quando o app está em segundo plano |
| Evitar suspensão | Configuração opcional para manter a máquina ativa enquanto tarefas são executadas |
| Skills + MCP | Configuração compartilhada entre app, CLI e extensão para IDE |
| Atalhos de MCP | Atalhos de acesso rápido à ferramenta MCP no compositor (App v26.226)65 |
| @menções em revisão | Mencione colaboradores com @ nos comentários de revisão de código (App v26.226)65 |
Modos de thread
Cada thread é executada em um dos três modos, selecionado ao criá-la:
| Modo | Isolamento | Acesso a arquivos | Ideal para |
|---|---|---|---|
| Local | Nenhum — trabalha diretamente no diretório do projeto | Leitura/escrita completa | Tarefas rápidas, exploração, trabalho não destrutivo |
| Worktree | Git worktree — cópia isolada do repositório em uma branch | Cópia isolada | Desenvolvimento de funcionalidades, refatorações arriscadas, experimentos paralelos |
| Cloud | Servidor remoto — executa na infraestrutura da OpenAI | Sem acesso local | Tarefas de longa duração, fluxos de trabalho similares a CI, delegação assíncrona |
Mecânica de isolamento do Worktree:
Quando você inicia uma thread Worktree, o desktop app:
1. Cria um novo git worktree (git worktree add) em um diretório temporário
2. Faz checkout de uma branch nova a partir do HEAD atual
3. Executa o agente dentro do worktree — todas as alterações de arquivos ficam isoladas
4. Apresenta uma revisão de diff ao finalizar — você escolhe quais alterações mesclar de volta
Isso significa que múltiplas threads Worktree podem ser executadas simultaneamente no mesmo repositório sem conflitos. Cada uma recebe sua própria branch e diretório de trabalho.
Automações
As automações são executadas localmente no app, então o app deve estar em execução e o projeto disponível no disco:
- Em repositórios Git, as automações usam worktrees dedicadas em segundo plano (isoladas do seu diretório de trabalho)
- Em projetos não-Git, as execuções acontecem diretamente no diretório do projeto
- As automações utilizam suas configurações padrão de sandbox
Configurando uma automação: 1. Abra um projeto no desktop app 2. Clique na aba Automações na barra lateral 3. Defina um gatilho (agendamento, webhook ou manual) 4. Escreva o prompt e selecione o modo de thread 5. As automações são executadas conforme o agendamento e enfileiram resultados para revisão
Exemplos de casos de uso: - Triagem de issues: Categorize e priorize automaticamente novas issues - Monitoramento de CI: Observe falhas de build e sugira correções - Resposta a alertas: Reaja a alertas de monitoramento com análise diagnóstica - Atualizações de dependências: Verifique e aplique patches de segurança
Os resultados aparecem em uma fila de revisão para aprovação humana.
Suporte ao Windows
O suporte ao Windows está planejado. Consulte a página do Codex Desktop App ou as releases do GitHub para atualizações de disponibilidade.18
GitHub Action e CI/CD
A Action oficial do GitHub integra o Codex ao seu pipeline de CI/CD.19
Uso básico
# .github/workflows/codex.yml
name: Codex
on:
pull_request:
types: [opened]
jobs:
codex:
runs-on: ubuntu-latest
outputs:
final_message: ${{ steps.run_codex.outputs.final-message }}
steps:
- uses: actions/checkout@v5
- name: Run Codex
id: run_codex
uses: openai/codex-action@v1
with:
openai-api-key: ${{ secrets.OPENAI_API_KEY }}
prompt-file: .github/codex/prompts/review.md
sandbox: workspace-write
safety-strategy: drop-sudo
Opções de configuração
| Entrada | Finalidade |
|---|---|
openai-api-key |
Chave de API para configuração de proxy/autenticação |
responses-api-endpoint |
Substituir endpoint (ex.: URL do Azure Responses) |
prompt / prompt-file |
Instruções da tarefa (um é obrigatório) |
working-directory |
Diretório passado para codex exec --cd |
sandbox |
workspace-write / read-only / danger-full-access |
codex-args |
Flags extras do CLI (array JSON ou string shell) |
output-schema / output-schema-file |
Schema de saída estruturada para --output-schema |
model / effort |
Configuração do agente |
output-file |
Salvar mensagem final em disco |
codex-version |
Fixar versão do CLI |
codex-home |
Diretório home personalizado do Codex |
allow-users / allow-bots |
Controles de lista de permissão de gatilho |
safety-strategy / codex-user |
Comportamento de redução de privilégios e seleção de usuário |
Saída: final-message, o texto da resposta final do Codex para etapas/jobs subsequentes.
Estratégias de segurança
| Estratégia | Descrição |
|---|---|
drop-sudo (padrão) |
Linux/macOS; remove a capacidade de sudo após a etapa da action |
unprivileged-user |
Executa o Codex como um usuário pré-criado com baixo privilégio |
read-only |
Sandbox somente leitura (risco de privilégio do runner/usuário ainda se aplica) |
unsafe |
Sem redução de privilégios; obrigatório em runners Windows |
Controles de acesso
with:
allow-users: "admin,maintainer" # Limit who can trigger
allow-bots: false # Block bot-triggered runs
Padrão: Apenas colaboradores com acesso de escrita podem acionar workflows do Codex.
Codex SDK
O TypeScript SDK incorpora as capacidades de agente do Codex em aplicações personalizadas.20
Instalação
npm install @openai/codex-sdk
Uso básico
import { Codex } from "@openai/codex-sdk";
const codex = new Codex();
const thread = codex.startThread();
// Multi-turn conversation
const turn1 = await thread.run("Diagnose CI failures and propose a fix");
console.log(turn1.finalResponse);
const turn2 = await thread.run("Implement the fix and add tests");
console.log(turn2.items);
// Resume a previous session
const resumed = codex.resumeThread("<thread-id>");
await resumed.run("Continue from previous work");
Recursos avançados do SDK
runStreamed(...): Stream assíncrono de eventos para atualizações intermediáriasoutputSchema: Impõe saída final com formato JSON- Entrada multimodal: Passe texto + imagens locais (
{ type: "local_image", path: "..." })
Configuração de thread e cliente
// Custom working directory, skip git check
const thread = codex.startThread({
workingDirectory: "/path/to/project",
skipGitRepoCheck: true,
});
// Custom environment and config overrides
const codex = new Codex({
env: { CODEX_API_KEY: process.env.MY_KEY },
config: { model: "gpt-5.2-codex" },
});
As sessões persistem em ~/.codex/sessions.
Runtime: Node.js 18+.
Otimização de desempenho
Gerenciamento de contexto
Os modelos principais possuem janelas de entrada de 272K tokens (128K de saída, 400K de orçamento total), mas ainda assim preenchem mais rápido do que se imagina. Gerencie proativamente:
- Use
/compactregularmente: Resume o histórico da conversa para liberar tokens - Forneça documentação local: Um
AGENTS.mdde alta qualidade e documentação local reduzem a sobrecarga de exploração (que consome contexto) - Use
@para anexar arquivos específicos: Referencie arquivos diretamente em vez de pedir ao Codex para encontrá-los - Mantenha os prompts focados: Prompts com escopo definido e arquivos exatos consomem menos contexto do que exploração aberta
Eficiência de tokens
| Técnica | Impacto |
|---|---|
Definir model_reasoning_summary = "none" |
Reduz tokens de saída em ~20% |
Usar model_verbosity = "low" |
Explicações mais curtas, mais ação |
| Usar modelos mini para tarefas simples | Significativamente mais barato por mensagem |
| Dividir tarefas complexas em sessões focadas | Melhor eficiência de tokens por sessão |
| Usar perfis para alternar configurações por tarefa | Evite pagar por alto raciocínio em trabalho rotineiro |
Otimização de velocidade
gpt-5.3-codex-spark: Variante de menor latência para pareamento interativo--profile fast: Modelo mini pré-configurado com baixo raciocínio- Execução paralela de ferramentas: O Codex executa leituras/verificações independentes simultaneamente, então estruture seus prompts para viabilizar isso
- Loops orientados a resultado: Peça “implemente, teste, corrija, pare quando estiver verde” em vez de instruções passo a passo
Como depurar problemas?
Problemas comuns e soluções
| Problema | Causa | Solução |
|---|---|---|
| Loop de “Re-connecting” | Múltiplas instâncias do Codex | Encerre todos os processos, aguarde 60s, reinicie uma única instância |
| Erros de autenticação 401 | Credenciais expiradas | rm ~/.codex/auth.json && codex login |
| Rede bloqueada no sandbox | Comportamento padrão | -c 'sandbox_workspace_write.network_access=true' |
| Desconexões no WSL2 | Corrupção de estado do WSL | wsl --shutdown no PowerShell, aguarde 1 min, reinicie |
| Falhas em patches | Incompatibilidade de quebras de linha | Normalize para LF, forneça o texto exato do arquivo |
| Falha na compactação de contexto | Contexto excessivo | Reduza o esforço de raciocínio, divida em tarefas menores |
| Modelo muda inesperadamente | Substituição via config.toml | Execute /config para inspecionar as configurações efetivas e suas origens |
| Modo de planejamento permite mutações | Bug conhecido | Issue #11115 |
| Esquecendo instruções do AGENTS.md | Limites de contexto | Mantenha as instruções concisas; use arquivos de skills para procedimentos detalhados |
| Travamento no modo Read Only | Problema conhecido | Discussion #7380 |
Referência de mensagens de erro
| Mensagem de Erro | Significado | Correção |
|---|---|---|
Error: EACCES permission denied |
O sandbox bloqueou uma operação de arquivo | Verifique o modo de sandbox; use workspace-write se o Codex precisar editar arquivos |
Error: rate limit exceeded |
Limite de requisições da API atingido | Aguarde e tente novamente; reduza model_reasoning_effort ou mude para um modelo mais leve |
Error: context length exceeded |
A conversa excedeu 272K tokens de entrada | Use /compact para resumir, ou inicie uma nova sessão com /new |
Error: MCP server failed to start |
O processo do servidor MCP travou ou excedeu o tempo limite | Verifique codex mcp get <name> para a configuração; aumente startup_timeout_sec |
Error: authentication required |
Nenhuma chave ou sessão API válida | Execute codex login ou defina CODEX_API_KEY |
Error: sandbox execution failed |
O comando falhou dentro do sandbox | Verifique a sintaxe do comando; confirme que as ferramentas necessárias estão disponíveis no ambiente sandbox |
WARN: skill not found |
A skill referenciada não existe no caminho esperado | Verifique a lista /skills; confirme a localização da pasta da skill |
Error: wire format mismatch |
Configuração wire_api incorreta para o provedor |
Use wire_api = "responses" para endpoints OpenAI (veja Provedores de modelo personalizados) |
Ferramentas de diagnóstico
codex --version # Check CLI version
codex login status # Verify authentication
codex mcp list # Check MCP server status
codex debug app-server --help # Debug app server issues
Diagnósticos da TUI durante a sessão:
/status # Token/session overview
/config # Inspect effective config values and sources
/compact # Summarize history to reclaim context
Nota:
codex --verbosenão é uma flag válida de nível superior. Use os subcomandos de debug e os diagnósticos da TUI acima.
Reinstalação limpa
npm uninstall -g @openai/codex && npm install -g @openai/codex@latest
Modo de debug
codex debug app-server send-message-v2 # Test app-server client
Reportando problemas
/feedback # Send logs to Codex maintainers (in TUI)
Ou registre issues em github.com/openai/codex/issues.1
Implantação empresarial
Controles administrativos (requirements.toml)
Administradores aplicam políticas empresariais via requirements.toml, um arquivo de configuração imposto pelo administrador que restringe configurações sensíveis de segurança que os usuários não podem sobrescrever:22
# /etc/codex/requirements.toml
# Restrict which approval policies users can select
allowed_approval_policies = ["untrusted", "on-request", "on-failure"]
# Limit available sandbox modes
allowed_sandbox_modes = ["read-only", "workspace-write"]
# Control web search capabilities
allowed_web_search_modes = ["cached"]
# Allowlist MCP servers by identity (both name and identity must match)
[mcp_servers.approved-server]
identity = { command = "npx approved-mcp-server" }
# Admin-enforced command restrictions
[[rules.prefix_rules]]
pattern = [{ token = "rm" }, { any_of = ["-rf", "-fr"] }]
decision = "forbidden"
justification = "Recursive force-delete is prohibited by IT policy"
[[rules.prefix_rules]]
pattern = [{ token = "sudo" }]
decision = "prompt"
justification = "Elevated commands require explicit approval"
Diferentemente do
config.tomlde nível de usuário que define preferências, orequirements.tomlé uma camada de restrição rígida que limita quais valores os usuários podem selecionar, e os usuários não podem sobrescrevê-lo. As regras de requisitos do administrador só podem solicitar confirmação ou proibir (nunca permitir silenciosamente).
Configuração MDM para macOS
Distribua via MDM usando o domínio de preferência com.openai.codex.22 O Codex respeita payloads padrão de MDM do macOS (Jamf Pro, Fleet, Kandji, etc.). Codifique o TOML como base64 sem quebras de linha:
| Chave | Finalidade |
|---|---|
config_toml_base64 |
Padrões gerenciados codificados em base64 (valores iniciais que os usuários podem alterar) |
requirements_toml_base64 |
Requisitos impostos pelo administrador codificados em base64 (os usuários não podem sobrescrever) |
Precedência (da mais alta para a mais baixa):
- Preferências gerenciadas do macOS (MDM)
- Requisitos obtidos da nuvem (ChatGPT Business / Enterprise)
/etc/codex/requirements.toml(sistema de arquivos local)
Os requisitos da nuvem apenas preenchem campos de requisitos não definidos, então camadas gerenciadas de maior precedência sempre prevalecem. Os requisitos da nuvem são fornecidos com base no melhor esforço; se a busca falhar ou expirar, o Codex continua sem a camada da nuvem.
Integração com OpenTelemetry
O Codex suporta propagação de contexto de rastreamento OpenTelemetry a partir de variáveis de ambiente OTel padrão até as chamadas à API da OpenAI. Defina as variáveis de ambiente padrão antes de iniciar o Codex:
# Point Codex at your OTel collector
export OTEL_EXPORTER_OTLP_ENDPOINT="https://otel-collector.internal:4318"
export OTEL_SERVICE_NAME="codex-cli"
export OTEL_RESOURCE_ATTRIBUTES="team=platform,env=production"
# Launch Codex — trace context propagates to all OpenAI API calls
codex
- As variáveis de ambiente
OTEL_*padrão são respeitadas (endpoint, nome do serviço, atributos de recurso) - O contexto de rastreamento se propaga pelo Codex até as chamadas à API, permitindo observabilidade de ponta a ponta
- Use atributos de recurso para marcar rastreamentos por equipe, ambiente ou projeto
- Tenha em mente os requisitos de privacidade ao habilitar o registro de prompts/ferramentas — os rastreamentos podem conter trechos de código
Acesso empresarial
- ChatGPT Business / Enterprise / Edu: Acesso controlado pelo administrador da organização, com requisitos obtidos da nuvem aplicados automaticamente. Suporta SSO via SAML/OIDC através do seu provedor de identidade (Okta, Entra ID, etc.)
- API: Autenticação padrão da API, cobrança e controles de organização/projeto. A OpenAI publica relatórios SOC 2 Type II e SOC 3; BAA HIPAA disponível para o nível Enterprise
- Codex SDK: Incorpore em ferramentas e fluxos de trabalho internos
- Aplicação de políticas em escala: Use
requirements_toml_base64distribuído via MDM ou/etc/codex/requirements.tomlno nível do sistema de arquivos
Tratamento de dados e conformidade: - Entradas/saídas da API não são usadas para treinamento sob os termos Business/Enterprise/API da OpenAI - Para residência de dados, o tráfego da API da OpenAI é roteado por infraestrutura baseada nos EUA por padrão; para requisitos de residência de dados na UE, consulte a equipe de vendas Enterprise da OpenAI - As transcrições das sessões são armazenadas localmente; apenas as chamadas à API saem da máquina - O ChatGPT Enterprise suporta frameworks de conformidade incluindo SOC 2, GDPR e CCPA
Estratégia de implantação
Implantação em fases recomendada para organizações:
- Piloto (Semana 1-2): Implante para 3-5 engenheiros seniores com
requirements.tomlaplicando o modo sandboxuntrustede busca webcached. Colete feedback sobre padrões do AGENTS.md e necessidades de servidores MCP. - Expansão para a equipe (Semana 3-4): Distribua para a equipe completa. Distribua o
config.tomlpadrão da equipe via MDM ou repositório. Habilite o sandboxworkspace-writepara repositórios confiáveis. - Integração com CI (Semana 5-6): Adicione
codex-actionaos pipelines de CI/CD para revisão automatizada de PRs e geração de testes. Use--ephemeralpara manter os custos previsíveis. - Toda a organização (Mês 2+): Implante via MDM com
requirements.tomlaplicando servidores MCP aprovados, políticas de sandbox e listas de modelos permitidos.
Padrões de auditoria
Monitore o uso do Codex e aplique conformidade:
- Rastreamentos OpenTelemetry: Monitore o volume de chamadas à API, uso de tokens e latência por equipe
- Persistência de sessão: Audite
~/.codex/sessions/para revisão de conformidade (desabilite com--ephemeralem contextos sensíveis) - Aplicação de identidade MCP: O
requirements.tomlregistra tentativas de servidores bloqueados — revise para detectar uso não autorizado de ferramentas - Trilha de auditoria do Git: Todas as alterações de arquivo do Codex passam pelo git padrão — revise via histórico de branches e diffs de PRs
Melhores Práticas e Anti-Padrões
Padrões de Prompt
- Prompts orientados por restrições: Comece com limites. “Do NOT change the API contracts. Only refactor internal implementation.”
- Passos de reprodução estruturados: Passos numerados produzem correções de bugs melhores do que descrições vagas
- Solicitações de verificação: Termine com “Run lint + the smallest relevant test suite. Report commands and results.”
- Referências a arquivos: Use
@filenamepara anexar arquivos específicos ao contexto - Loops orientados a resultados: “Implement, run tests, fix failures, stop only when all tests pass.” O Codex itera até concluir
Filosofia de Testes
A comunidade converge para a colaboração com IA orientada por testes:23
- Defina testes antecipadamente como sinais de conclusão
- Deixe o Codex iterar até que os testes passem (red → green → refactor)
- Adote padrões de programação Tiger Style
- Forneça o texto exato do arquivo ao solicitar patches. O Codex usa correspondência estrita, não patching fuzzy baseado em AST
Melhores Práticas de Gerenciamento de Contexto
- Forneça documentação local de alta qualidade em vez de depender de busca na web
- Mantenha markdown estruturado com sumários e arquivos de progresso (“progressive disclosure”)
- Normalize terminações de linha (LF vs CRLF) em arquivos rastreados para evitar falhas em patches
- Mantenha o
AGENTS.mdconciso, pois instruções longas são empurradas para fora do contexto
Fluxo de Trabalho com Git
- Sempre crie um novo branch antes de executar o Codex em repositórios desconhecidos
- Use fluxos baseados em patch (
git diff/git apply) em vez de edições diretas - Revise as sugestões do Codex como revisões de código em PRs
- Use
/diffpara verificar as alterações antes de fazer commit
Skills e Prompts da Comunidade
O repositório feiskyer/codex-settings fornece configurações mantidas pela comunidade:24
Prompts reutilizáveis (em ~/.codex/prompts/):
- deep-reflector: Extrair aprendizados de sessões de desenvolvimento
- github-issue-fixer [issue-number]: Análise sistemática de bugs e criação de PRs
- github-pr-reviewer [pr-number]: Fluxos de revisão de código
- ui-engineer [requirements]: Desenvolvimento frontend de nível de produção
Skills da comunidade:
- claude-skill: Delegar tarefas ao Claude Code com modos de permissão
- autonomous-skill: Automação de tarefas multi-sessão com rastreamento de progresso
- deep-research: Orquestração paralela de sub-tarefas
- kiro-skill: Pipeline de requisitos → design → tarefas → execução
Anti-Padrões
Erros comuns que desperdiçam tokens, produzem resultados ruins ou criam fluxos de trabalho frustrantes.
Anti-Padrões de Custo
| Anti-Padrão | Por que Falha | Correção |
|---|---|---|
Usar xhigh reasoning para tudo |
Custo de tokens 3-5x maior com retornos decrescentes em tarefas simples | Use medium por padrão; reserve xhigh para decisões arquiteturais multi-arquivo |
Nunca usar /compact |
O contexto enche até 272K, as respostas degradam | Compacte após cada marco importante ou quando /status mostrar >60% de uso |
| Executar o modelo principal em CI | Caro para verificações rotineiras | Crie um perfil ci com gpt-5.1-codex-mini e reasoning low |
Anti-Padrões de Contexto
| Anti-Padrão | Por que Falha | Correção |
|---|---|---|
| Prompts abertos tipo “explore tudo” | O Codex lê dezenas de arquivos, desperdiçando contexto em código irrelevante | Delimite com arquivos específicos: “Review src/auth/login.py and tests/test_auth.py“ |
Sem AGENTS.md no projeto |
O Codex desperdiça turnos descobrindo a estrutura do projeto | Adicione um AGENTS.md de 20 linhas com caminhos principais, convenções e comandos de teste |
| Anexar diretórios inteiros | Inunda o contexto com arquivos irrelevantes | Use @filename para anexar apenas os arquivos que o Codex precisa |
Anti-Padrões de Fluxo de Trabalho
| Anti-Padrão | Por que Falha | Correção |
|---|---|---|
Trabalhar diretamente no main |
Sem rede de segurança; edições arriscadas são difíceis de reverter | Sempre crie um branch de feature antes de iniciar o Codex |
Pular /diff antes de fazer commit |
O Codex pode ter feito alterações não intencionais | Revise /diff após cada tarefa, antes de qualquer commit |
| Ignorar a saída dos testes | O Codex itera além das falhas se você não sinalizá-las | Use “run tests and stop only when all pass” no seu prompt |
| Nunca bifurcar conversas | Um passo errado polui todo o contexto | /fork antes de explorações arriscadas; descarte branches ruins |
Anti-Padrões de Prompt
| Anti-Padrão | Por que Falha | Correção |
|---|---|---|
| “Fix the bug” (sem contexto) | O Codex adivinha qual bug, lê tudo | “Fix the TypeError in src/api/handler.py:42 — user.name is None when unauthenticated” |
| Prompts com múltiplas tarefas em uma mensagem | O Codex mistura tarefas, deixa algumas de lado | Uma tarefa por mensagem; use o modo steer (Tab) para enfileirar continuações |
| Repetir contexto a cada mensagem | Desperdiça tokens com informações duplicadas | Use /m_update para fatos persistentes; referencie contexto anterior |
Receitas de Fluxo de Trabalho
Padrões de ponta a ponta para cenários comuns de desenvolvimento.
Receita 1: Configuração de Novo Projeto
mkdir my-app && cd my-app && git init
codex
> Create a FastAPI project with: main.py, requirements.txt, Dockerfile,
basic health endpoint, and a README. Use async throughout.
> /init
Revise o AGENTS.md gerado, edite para corresponder às suas convenções, e então:
> Run the health endpoint test and confirm it passes
Receita 2: Fluxo de Desenvolvimento Diário
cd ~/project && git checkout -b feature/user-auth
codex
> @src/models/user.py @src/api/auth.py
Add password reset functionality. Requirements:
1. POST /api/auth/reset-request (email → sends token)
2. POST /api/auth/reset-confirm (token + new password)
3. Tests for both endpoints
Run tests when done.
Revise com /diff, e então faça commit.
Receita 3: Refatoração Complexa com Modo de Planejamento
codex
> /plan Migrate the database layer from raw SQL to SQLAlchemy ORM.
Constraints: don't change any API contracts, keep all existing tests passing.
Revise o plano. Aprove ou direcione:
[Tab] Also add a migration script using Alembic
Após o Codex executar, verifique:
> Run the full test suite and report results
> /diff
Receita 4: Revisão de PR com codex exec
codex exec --model gpt-5.1-codex-mini \
"Review the changes in this branch against main. \
Flag security issues, missed edge cases, and style violations. \
Format as a markdown checklist." \
-o review.md
Receita 5: Depuração com Cloud Tasks [EXPERIMENTAL]
codex cloud exec --env my-env "Diagnose why the /api/orders endpoint returns 500 \
for orders with > 100 line items. Check the serializer, database query, \
and pagination logic. Propose a fix with tests."
Verifique o progresso depois:
codex cloud status <TASK_ID>
codex cloud diff <TASK_ID>
Aplique a correção localmente quando terminar:
codex apply <TASK_ID>
Guia de Migração
A partir do Claude Code
| Conceito do Claude Code | Equivalente no Codex |
|---|---|
CLAUDE.md |
AGENTS.md (padrão aberto) |
.claude/settings.json |
.codex/config.toml (formato TOML) |
--print flag |
subcomando codex exec |
--dangerously-skip-permissions |
--dangerously-bypass-approvals-and-sandbox |
| Hooks (12+ eventos) | Hooks (AfterAgent, AfterToolUse — nascente; v0.99.0+) |
| Subagents (ferramenta Task) | Sub-agents (internos, máx. 6; sem equivalente da ferramenta Task para o usuário) |
/compact |
/compact (idêntico) |
/cost |
/status (mostra uso de tokens) |
| Modelo: Opus/Sonnet/Haiku | Modelo: gpt-5.3-codex / gpt-5.3-codex-spark / gpt-5.2-codex / gpt-5.1-codex-mini (Codex usa exclusivamente a família de modelos GPT-5.x da OpenAI) |
claude --resume |
codex resume |
| Regras de permissão | Sandbox modes + approval policies |
| Configuração MCP em settings.json | Configuração MCP em config.toml |
Principais diferenças a entender:
- Sandbox é em nível de SO: Codex usa Seatbelt/Landlock, não contêineres. As restrições operam no nível do kernel, abaixo da camada de aplicação.
- Hooks são nascentes: Codex adicionou hooks na v0.99.0 (AfterAgent) e v0.100.0 (AfterToolUse), mas o sistema está em estágio inicial comparado aos 12+ eventos de ciclo de vida do Claude Code. Para padrões de automação ainda não cobertos, use instruções no AGENTS.md ou skills.
- Sub-agents são internos, mas agora configuráveis: Codex possui mecanismo de sub-agents (máx. 6 concorrentes, reduzido de 12 na v0.91.0). A partir da v0.104.0, funções multi-agente são personalizáveis via configuração, permitindo funções de agente nomeadas com perfis distintos.49 A v0.105.0 adicionou
spawn_agents_on_csvpara distribuição entre linhas com acompanhamento de progresso e ETA.63 Codex ainda não possui o UX explícito da ferramenta Task do Claude Code para delegação direcionada pelo usuário — use tarefas na nuvem ou orquestração SDK para padrões de delegação. - AGENTS.md é multi-ferramenta: Seu AGENTS.md funciona no Cursor, Copilot, Amp, Jules, Gemini CLI e em mais de 60.000 projetos open source. CLAUDE.md é exclusivo do Claude.
- Perfis substituem alternância manual: Em vez de alterar flags por execução, defina perfis no config.toml.
A partir do GitHub Copilot
| Conceito do Copilot | Equivalente no Codex |
|---|---|
| Copilot CLI (terminal agêntico) | CLI interativo ou aplicativo desktop |
| Agentes especializados (Explore, Plan) | Skills + modo plan + modo steer |
copilot-instructions.md / AGENTS.md |
AGENTS.md (mesmo padrão) |
| Suporte a MCP | Suporte a MCP (STDIO + HTTP) |
| ACP (Agent Client Protocol) | Hooks (AfterAgent, AfterToolUse) |
| Copilot SDK | Codex SDK (TypeScript) |
| Fluxos de trabalho de agente de codificação | Agente Codex com controles de sandbox/aprovação + tarefas na nuvem |
O que você ganha:
- Sandbox em nível de SO (Seatbelt/Landlock — imposto pelo kernel vs baseado em contêiner)
- Delegação de tarefas na nuvem com codex apply
- Perfis de configuração para alternância de fluxos de trabalho
- Aplicativo desktop com isolamento via worktree
A partir do Cursor
| Conceito do Cursor | Equivalente no Codex |
|---|---|
Regras de projeto (.cursor/rules) / AGENTS.md |
AGENTS.md + perfis/configuração |
| Fluxos de trabalho de chat/composer com agente | CLI interativo ou aplicativo desktop |
Referências de arquivo com @ |
Referências de arquivo com @ (idêntico) |
| Aplicar/editar + revisão | Patching e revisão de diff integrados |
Cartão de Referência Rápida
╔═══════════════════════════════════════════════════════════════╗
║ CODEX CLI QUICK REFERENCE ║
╠═══════════════════════════════════════════════════════════════╣
║ ║
║ LAUNCH ║
║ codex Interactive TUI ║
║ codex "prompt" TUI with initial prompt ║
║ codex exec "prompt" Non-interactive mode ║
║ codex app Desktop app ║
║ codex resume Resume previous session ║
║ codex fork Fork a session ║
║ ║
║ FLAGS ║
║ -m, --model <model> Select model ║
║ -p, --profile <name> Load config profile ║
║ -s, --sandbox <mode> Sandbox mode ║
║ -C, --cd <dir> Working directory ║
║ -i, --image <file> Attach image(s) ║
║ -c, --config <key=value> Override config ║
║ --full-auto workspace-write + on-request ║
║ --oss Use local models (Ollama) ║
║ --search Enable live web search ║
║ ║
║ SLASH COMMANDS (in TUI) ║
║ /compact Free tokens /diff Git diff ║
║ /review Code review /plan Plan mode ║
║ /model Switch model /status Session info ║
║ /fork Fork thread /init AGENTS.md scaffold ║
║ /mcp MCP tools /skills Invoke skills ║
║ /ps Background /personality Style ║
║ /permissions Approval mode /statusline Footer config ║
║ /copy Copy last response to clipboard ║
║ /clear Clear screen /theme Syntax highlighting ║
║ /experimental Toggle experimental features (js_repl) ║
║ ║
║ TUI SHORTCUTS ║
║ @ Fuzzy file search ║
║ !command Run shell command ║
║ Ctrl+G External editor ║
║ Ctrl+L Clear screen ║
║ Enter Inject instructions (while running) ║
║ Esc Esc Edit previous messages ║
║ ║
║ EXEC MODE (CI/CD) ║
║ codex exec --full-auto "task" Sandboxed auto ║
║ codex exec --json -o out.txt "task" JSON + file output ║
║ codex exec --output-schema s.json Structured output ║
║ codex exec resume --last "continue" Resume session ║
║ ║
║ MCP MANAGEMENT [EXPERIMENTAL] ║
║ codex mcp add <name> -- <cmd> Add STDIO server ║
║ codex mcp add <name> --url <u> Add HTTP server ║
║ codex mcp list List servers ║
║ codex mcp login <name> OAuth flow ║
║ codex mcp remove <name> Delete server ║
║ ║
║ CLOUD [EXPERIMENTAL] ║
║ codex cloud exec --env <ID> Start cloud task ║
║ codex cloud status <ID> Check task progress ║
║ codex cloud diff <ID> View task diff ║
║ codex cloud list List tasks ║
║ codex apply <TASK_ID> Apply cloud diff locally ║
║ ║
║ CONFIG FILES ║
║ ~/.codex/config.toml User config ║
║ .codex/config.toml Project config ║
║ ~/.codex/AGENTS.md Global instructions ║
║ AGENTS.md Project instructions ║
║ requirements.toml Enterprise policy constraints ║
║ ║
║ SANDBOX MODES ║
║ read-only Read files only, no mutations ║
║ workspace-write Read/write in workspace + /tmp ║
║ danger-full-access Full machine access ║
║ ║
║ APPROVAL POLICIES ║
║ untrusted Prompt for all mutations ║
║ on-failure Auto-run until failure ║
║ on-request Prompt for boundary violations ║
║ never No prompts ║
║ ║
║ MODELS (Feb 2026, v0.106.0) ║
║ gpt-5.3-codex Default flagship (272K in / 400K) ║
║ gpt-5.3-codex-spark Interactive, lower latency (128K) ║
║ gpt-5.2-codex Long-horizon refactors (272K / 400K) ║
║ gpt-5.1-codex-mini Quick tasks, cost-efficient (272K/400K)║
║ ║
╚═══════════════════════════════════════════════════════════════╝
Changelog
| Data | Versão | O que mudou | Fonte |
|---|---|---|---|
| 2026-03-02 | Guide v2.9 | Atualizado para CLI v0.107.0: bifurcação de threads em sub-agentes, seleção de dispositivo de voz em tempo real, memórias configuráveis com codex debug clear-memories, saída multimodal de ferramentas personalizadas. Adicionado App v26.226: atalhos MCP no compositor, @mentions em comentários de revisão. |
64 65 |
| 2026-03-02 | CLI 0.107.0 | Bifurcação de threads em sub-agentes, sessões de voz em tempo real com seleção de dispositivo de microfone/alto-falante, saída multimodal de ferramentas personalizadas, memórias configuráveis + codex debug clear-memories, correções de bugs |
64 |
| 2026-02-28 | Guide v2.8 | Atualizado para CLI v0.106.0: adicionado script de instalação direta, correção de bypass de sandbox por fork do zsh, limite de entrada de ~1M caracteres, sistema de arquivos /dev no Linux, controles de aprovação flexíveis, JS REPL promovido para /experimental (Node 22.22.0+), esquecimento de memória baseado em diff, destaque de sintaxe no TUI + /theme, /copy, /clear, Ctrl-L, transcrição de voz, spawn_agents_on_csv, request_user_input no modo Default. Adicionadas entradas de changelog v0.105.0 e v0.106.0. | 62 63 |
| 2026-02-26 | CLI 0.106.0 | Script de instalação direta, js_repl promovido para /experimental com Node 22.22.0 mín., request_user_input no modo Default, 5.3-codex visível na lista de modelos do CLI para usuários API, esquecimento de memória baseado em diff com seleção ciente de uso, correção de bypass de sandbox por fork do zsh, limite de entrada de ~1M caracteres, renderização aprimorada de links de arquivo no TUI, correção de tratamento de Ctrl-C para sub-agentes | 62 |
| 2026-02-25 | CLI 0.105.0 | TUI destaca sintaxe de blocos de código cercados e diffs com seletor /theme, transcrição de voz (ditado por barra de espaço, experimental), spawn_agents_on_csv para fanout multi-agente com progresso/ETA, comandos /copy /clear Ctrl-L, controles de aprovação flexíveis (permissões extras de sandbox, rejeição granular), links clicáveis com quebra de linha, sistema de arquivos /dev no Linux para comandos em sandbox, melhorias no relatório de erros do js_repl | 63 |
| 2026-02-24 | Guide v2.7 | Seção de Acesso/Preços expandida: adicionado nível promocional Free/Go, limites de taxa 2x para planos pagos, limites de uso por plano (janela de 5 horas), tabela de custos de créditos. Adicionada chave de configuração allow_login_shell. |
53 |
| 2026-02-22 | Guide v2.6 | Adicionadas chaves de configuração ausentes: features.multi_agent, features.apply_patch_freeform, features.search_tool, agents.* (funções multi-agente), model_context_window, model_auto_compact_token_limit, mcp_oauth_callback_port, mcp_oauth_credentials_store, notify. Adicionada entrada de changelog do App v26.217. |
52 |
| 2026-02-19 | Guide v2.5 | Referências de versão atualizadas para CLI 0.104.0, adicionadas entradas de changelog v0.103.0 e v0.104.0, adicionado suporte a proxy WS_PROXY/WSS_PROXY, IDs de aprovação distintos, atribuição de coautoria em commits, substituída flag de recurso remote_models removida por command_attribution. |
— |
| 2026-02-18 | CLI 0.104.0 | Suporte a proxy WebSocket WS_PROXY/WSS_PROXY, IDs de aprovação distintos para comandos de múltiplas etapas, notificações de arquivar/desarquivar threads | 51 |
| 2026-02-17 | App v26.217 | Arrastar e soltar para reordenar mensagens na fila, aviso de downgrade de modelo, busca fuzzy de arquivos aprimorada com recuperação de anexos após reinício | 52 |
| 2026-02-17 | CLI 0.103.0 | Atribuição de coautoria em commits via hook prepare-commit-msg (configurável via command_attribution), metadados/branding aprimorados na listagem de apps, flag de recurso remote_models removida |
50 |
| 2026-02-17 | Guide v2.4 | Atualizadas todas as referências de versão para CLI 0.102.0, adicionada entrada de changelog v0.102.0 e nota de rodapé, atualizada nota sobre sub-agentes com funções multi-agente configuráveis. | — |
| 2026-02-17 | CLI 0.102.0 | Fluxo de permissões unificado, aprovações de rede estruturadas, funções multi-agente personalizáveis, notificações de redirecionamento de modelo, correções de estabilidade do js_repl | 49 |
| 2026-02-16 | Guide v2.3 | Corrigida tabela de migração: hooks agora existem (v0.99.0+), sub-agentes reconhecidos (máx. 6), lista de modelos completa. Adicionada seção dedicada de Hooks (AfterAgent, AfterToolUse, padrões de migração). Corrigidos comandos fantasma da Receita 5 (cloud start→cloud exec, cloud pull→apply). Corrigido codex auth→codex login. Sandbox do Windows promovido de Experimental. Bubblewrap no Linux agora embutido/vendored. Adicionado nível de raciocínio minimal. Seção de memória expandida (refinamentos v0.101.0, memória vs AGENTS.md). Lista de adotantes do AGENTS.md atualizada (60.000+ projetos, governança Linux Foundation). Tabela de migração do Copilot atualizada. Consistência de maiúsculas/minúsculas [EXPERIMENTAL] corrigida. Adicionada documentação da política ReadOnlyAccess, seção JS REPL Runtime, exemplo de skill Deploy em produção, seção de custos expandida (overhead de tokens ocultos, gerenciamento de custos em equipe). 20 blocos de código sem tag identificados. Verificadas todas as 30 âncoras do sumário. Correções pós-avaliação: terminologia /permissions corrigida (approval mode→approval policy), cabeçalho duplicado “Project Trust” renomeado, linguagem de depreciação chat/completions atenuada, seção OpenTelemetry expandida com exemplo de configuração, linguagem “harder to escape” na migração tornada precisa. |
Auditoria de deliberação |
| 2026-02-16 | Guide v2.2 | Adicionadas 19 versões históricas de marcos do CLI (v0.2.0–v0.91.0) ao changelog. Citação em massa 25 substituída por 20 notas de rodapé individuais de versão (37–61). Adicionada citação 61 da licença Apache 2.0. Adicionada citação 5 à referência codex-linux-sandbox. Adicionada citação 22 ao domínio de preferências MDM. Atualizada nota 6 do Seatbelt re: bloqueio de bots. Adicionada nota sobre URLs não verificáveis do blog da OpenAI. Total de notas de rodapé: 56 (eram 36). | Auditoria de deliberação |
| 2026-02-15 | Guide v2.1 | Seção Enterprise corrigida (managed-admin-config.toml → requirements.toml com chaves TOML verificadas), contexto de 272K qualificado como janela de entrada com citação, URL da citação 6 do Seatbelt adicionada, bloco de Principais Conclusões adicionado, violações de estilo corrigidas, meta description reduzida, lista de adotantes do AGENTS.md expandida. | Auditoria de avaliador de blog |
| 2026-02-14 | Guide v2 | Revisão principal: correções verificadas pelo Codex em modelos (contexto 272K), chaves de configuração, flags de recursos, preços, configuração enterprise, CI/CD action, SDK API, opções MCP, flags do codex exec, recursos do app desktop, comparações de migração. Reivindicações não verificáveis removidas. | Autorrevisão |
| 2026-02-12 | CLI 0.101.0 | Melhorias na resolução de modelos, refinamentos de memória, estabilidade | 37 |
| 2026-02-12 | CLI 0.100.0 | JS REPL experimental, múltiplos limites de taxa, transporte WebSocket, comandos de memória, sandbox aprimorado | 38 |
| 2026-02-12 | App v260212 | Bifurcação de conversas, janela flutuante pop-out, alpha para Windows | 18 |
| 2026-02-12 | – | Lançamento do GPT-5.3-Codex-Spark (variante interativa de menor latência) | 26 |
| 2026-02-11 | CLI 0.99.0 | Comandos shell simultâneos, /statusline, seletor de retomada ordenável, suporte a GIF/WebP, snapshots de shell |
39 |
| 2026-02-06 | CLI 0.98.0 | Suporte a GPT-5.3-Codex, modo steer estável e padrão, correções de troca de modelo | 40 |
| 2026-02-06 | CLI 0.97.0 | Aprovações MCP “Permitir e lembrar”, detecção de skills em tempo real, diagnósticos /config, infraestrutura de memória |
41 |
| 2026-02-06 | CLI 0.96.0 | Thread/compact assíncrono v2, limites de taxa WebSocket, unified_exec não-Windows, proveniência de configuração | 42 |
| 2026-02-06 | CLI 0.95.0 | Comando codex app, skills pessoais, ferramentas shell paralelas, hardening do git |
43 |
| 2026-02-05 | – | Lançamento do GPT-5.3-Codex — modelo unificado, 25% mais rápido, operação de computador ponta a ponta | 27 |
| 2026-02-02 | – | Lançamento do Codex Desktop App (macOS) — multitarefas, worktrees, automações | 17 |
| 2026-01-30 | CLI 0.94.0 | Modo plan padrão, personalidade estável, skills de .agents/skills, métricas de runtime |
44 |
| 2026-01-29 | CLI 0.93.0 | Proxy SOCKS5, streaming do modo plan, /apps, aprovações inteligentes padrão, logs SQLite |
45 |
| 2026-01-29 | CLI 0.92.0 | Threads API v2, filtragem de threads, escopos MCP OAuth, colaboração multi-agente | 46 |
| 2026-01-25 | CLI 0.91.0 | Máximo de sub-agentes reduzido de 12 para 6 para limites de recursos mais rígidos | 47 |
| 2026-01-21 | CLI 0.88.0 | Fallback de autenticação por código de dispositivo, modos de colaboração, /fork, modelos remotos, configuração model_personality |
48 |
| 2026-01-06 | CLI 0.78.0 | Editor externo com Ctrl+G, camadas de configuração por projeto, configuração MDM no macOS, navegação de transcrição no TUI2, instaladores .dmg |
54 |
| 2025-12-18 | – | Lançamento do GPT-5.2-Codex — compactação de contexto, refatorações/migrações, cibersegurança | 28 |
| 2025-12-09 | CLI 0.66.0 | Sistema de política de execução (whitelisting no TUI, emendas de negação de sandbox), preservação de CRLF, assinatura Sigstore no Linux | 55 |
| 2025-11-19 | – | GPT-5.1-Codex-Max — compactação multi-janela, treinamento Windows, 30% menos tokens de raciocínio | 29 |
| 2025-11-19 | CLI 0.59.0 | Compactação nativa, limite de saída de ferramentas elevado para 10K tokens, sandbox do modo Agent no Windows, créditos no /status |
56 |
| 2025-10-25 | CLI 0.50.0 | Diagnósticos /feedback, avaliação de risco de violação de sandbox, melhorias de inicialização MCP, redação de variáveis de ambiente |
57 |
| 2025-10-06 | – | Codex GA no DevDay — integração com Slack, SDK, ferramentas administrativas | 30 |
| 2025-10-06 | CLI 0.45.0 | Quebra de compatibilidade: codex login --api-key → --with-api-key (stdin). Autenticação OAuth MCP, chamadas de ferramentas paralelas, UI com ponto pulsante |
58 |
| 2025-09-23 | – | GPT-5-Codex + extensão para IDE + reformulação do CLI — imagens, busca web, revisão de código | 31 |
| 2025-09-23 | CLI 0.40.0 | Modelo padrão → gpt-5-codex, auto-compactação a 220K tokens, comandos /review, desfazer git, suporte a binários Windows |
59 |
| 2025-06-30 | CLI 0.2.0 | Primeira versão com binário Rust — binários pré-compilados para macOS (aarch64/x86_64) e Linux (gnu/musl), ferramentas codex-exec e codex-linux-sandbox |
60 |
| 2025-06 | – | Reescrita em Rust anunciada (“Codex CLI is Going Native”) | 32 |
| 2025-06-03 | – | Expansão para usuários Plus, acesso à internet para cloud, atualizações de PR, ditado por voz | 33 |
| 2025-05-16 | – | Lançamento do Codex Cloud — agente na nuvem com modelo codex-1, criação de PR GitHub | 34 |
| 2025-04-16 | – | Lançamento open-source do Codex CLI (Apache 2.0, TypeScript, codex-mini-latest)61 | 1 |
Referências
Nota sobre URLs do blog OpenAI: As referências 17, 26–31 e 34 apontam para posts no blog
openai.com/index/que retornam HTTP 403 para acesso automatizado devido à proteção contra bots do Cloudflare. Essas URLs são válidas quando acessadas por um navegador web padrão.
-
GitHub — openai/codex — Repositório open-source, releases e discussões. ↩↩↩
-
Codex CLI Windows Support — Instalação no Windows e orientações sobre WSL. ↩
-
Codex IDE Extension — Integração com VS Code, Cursor e Windsurf. ↩
-
Codex Cloud — Documentação de tarefas na nuvem e controles de acesso à internet. ↩↩
-
Codex Security — Arquitetura de sandbox e modelo de segurança. ↩↩↩
-
macOS Seatbelt Sandbox — Documentação da comunidade sobre o framework sandbox-exec da Apple (nenhuma documentação oficial da Apple para desenvolvedores foi publicada). Nota: este wiki pode bloquear acesso automatizado (HTTP 403); veja também
man sandbox-execno macOS. ↩↩↩ -
Linux Landlock LSM — Controle de acesso ao sistema de arquivos no kernel. ↩
-
How Codex CLI Flags Actually Work — Análise da comunidade sobre interações entre flags. ↩
-
Breaking Out of the Sandbox — Padrões de configuração de sandbox da comunidade. ↩
-
AGENTS.md Open Standard — Padrão de instruções cross-tool sob a Linux Foundation. ↩
-
Custom Instructions with AGENTS.md — Guia oficial. ↩
-
Codex MCP Integration — Configuração e gerenciamento de servidores MCP. ↩
-
Building Workflows with Agents SDK — Codex como servidor MCP para orquestração multi-agente. ↩
-
Agent Skills — Documentação do sistema de skills. ↩
-
Codex CLI Features — Modo plan, modo steer e recursos de colaboração. ↩↩
-
Non-Interactive Mode — Documentação do
codex exec. ↩ -
Introducing the Codex App — Anúncio de lançamento do aplicativo desktop. ↩↩↩
-
Codex App Documentation — Recursos do aplicativo desktop e solução de problemas. ↩↩
-
Codex GitHub Action — Integração CI/CD. ↩
-
Codex Pricing — Preços de assinatura e API. ↩
-
Codex Configuration Reference — Schema requirements.toml corporativo e distribuição MDM. ↩↩↩
-
Best Practices for Using Codex — Tópico no fórum da comunidade. ↩
-
feiskyer/codex-settings — Configurações, skills e prompts mantidos pela comunidade. ↩
-
Codex CLI Releases — Notas de release do GitHub. ↩↩
-
Introducing GPT-5.3-Codex-Spark — Parceria com Cerebras, 1000+ tok/s. ↩↩
-
Introducing GPT-5.3-Codex — Lançamento do modelo unificado. ↩
-
Introducing GPT-5.2-Codex — Compactação de contexto e alterações em larga escala. ↩
-
Building More with GPT-5.1-Codex-Max — Compactação multi-janela. ↩
-
Codex is Now Generally Available — Anúncio do DevDay 2025. ↩
-
Introducing Upgrades to Codex — GPT-5-Codex + extensão IDE. ↩↩
-
Codex CLI is Going Native — Discussão sobre reescrita em Rust. ↩
-
Codex Updates: Internet Access and Plus Rollout — Expansão de junho de 2025. ↩
-
Introducing Codex — Lançamento do agente na nuvem. ↩↩
-
Codex Context Window Discussion — 272K tokens de entrada + 128K tokens de saída = orçamento total de 400K, confirmado via código-fonte. ↩
-
Deprecating chat/completions support in Codex — OpenAI anunciou a remoção do API chat/completions para o Codex, concluída em fevereiro de 2026. ↩
-
Codex CLI v0.101.0 — Melhorias na resolução de modelos, refinamentos de memória, estabilidade. 12 de fevereiro de 2026. ↩↩
-
Codex CLI v0.100.0 — JS REPL experimental, múltiplos limites de taxa, transporte WebSocket, comandos de memória, sandbox aprimorado. 12 de fevereiro de 2026. ↩
-
Codex CLI v0.99.0 — Comandos de shell concorrentes,
/statusline, seletor de retomada ordenável, suporte a GIF/WebP, snapshots de shell. 11 de fevereiro de 2026. ↩ -
Codex CLI v0.98.0 — Suporte a GPT-5.3-Codex, modo steer estável e padrão, correções na troca de modelos. 6 de fevereiro de 2026. ↩
-
Codex CLI v0.97.0 — Aprovações MCP com “Allow and remember”, detecção de skills em tempo real, diagnósticos
/config, infraestrutura de memória. 6 de fevereiro de 2026. ↩ -
Codex CLI v0.96.0 — Thread assíncrona/compact v2, limites de taxa WebSocket, unified_exec fora do Windows, proveniência de configuração. 6 de fevereiro de 2026. ↩
-
Codex CLI v0.95.0 — Comando
codex app, skills pessoais, ferramentas de shell paralelas, hardening do git. 6 de fevereiro de 2026. ↩ -
Codex CLI v0.94.0 — Modo plan padrão, personalidade estável, skills de
.agents/skills, métricas de runtime. 30 de janeiro de 2026. ↩ -
Codex CLI v0.93.0 — Proxy SOCKS5, streaming no modo plan,
/apps, aprovações inteligentes como padrão, logs SQLite. 29 de janeiro de 2026. ↩ -
Codex CLI v0.92.0 — Threads API v2, filtragem de threads, escopos MCP OAuth, colaboração multi-agente. 29 de janeiro de 2026. ↩
-
Codex CLI v0.91.0 — Redução de sub-agentes máximos de 12 para 6 para limites de recursos mais rígidos. 25 de janeiro de 2026. ↩
-
Codex CLI v0.88.0 — Fallback de autenticação por código de dispositivo, modos de colaboração,
/fork, modelos remotos, configuraçãomodel_personality. 21 de janeiro de 2026. ↩ -
Codex CLI v0.102.0 — Fluxo de permissões unificado, aprovações de rede estruturadas, funções multi-agente personalizáveis, notificações de redirecionamento de modelo. 17 de fevereiro de 2026. ↩↩
-
Codex CLI v0.103.0 — Atribuição de coautor em commits via hook prepare-commit-msg, metadados/branding mais ricos na listagem de apps, remoção da feature flag
remote_models. 17 de fevereiro de 2026. ↩ -
Codex CLI v0.104.0 — Suporte a proxy WebSocket WS_PROXY/WSS_PROXY, IDs de aprovação distintos para comandos, notificações de arquivamento/desarquivamento de threads. 18 de fevereiro de 2026. ↩↩↩
-
Codex Changelog — Codex App v26.217: reordenação por arrastar e soltar, aviso de downgrade de modelo, melhorias na busca difusa de arquivos. Codex Config Reference — Referência completa de chaves de configuração. Fevereiro de 2026. ↩↩
-
Codex Pricing — Planos, limites de uso por janela de 5 horas, custos de crédito e acesso promocional Free/Go. Fevereiro de 2026. ↩↩
-
Codex CLI v0.78.0 — Editor externo com
Ctrl+G, camadas de configuração por projeto, configuração macOS MDM, navegação de transcrição TUI2, instaladores.dmg. 6 de janeiro de 2026. ↩ -
Codex CLI v0.66.0 — Sistema de políticas exec, preservação de CRLF no Windows,
--branchno cloud exec, assinatura Sigstore no Linux. 9 de dezembro de 2025. ↩ -
Codex CLI v0.59.0 — Compactação nativa, limite de saída de ferramentas elevado para 10K tokens, sandbox no modo Agent no Windows, créditos em
/status. 19 de novembro de 2025. ↩ -
Codex CLI v0.50.0 — Diagnósticos
/feedback, avaliação de risco de violação de sandbox, melhorias na inicialização MCP, redação de variáveis de ambiente. 25 de outubro de 2025. ↩ -
Codex CLI v0.45.0 — Breaking:
codex login --api-key→--with-api-key(stdin). Autenticação OAuth MCP, chamadas de ferramentas paralelas. 6 de outubro de 2025. ↩ -
Codex CLI v0.40.0 — Modelo padrão →
gpt-5-codex, autocompactação em 220K tokens, comandos/review, desfazer git, binário Windows. 23 de setembro de 2025. ↩ -
Codex CLI v0.2.0 — Primeiro release do binário Rust. Binários pré-compilados para macOS (aarch64/x86_64) e Linux (gnu/musl), ferramentas
codex-exececodex-linux-sandbox. 30 de junho de 2025. ↩ -
GitHub — openai/codex LICENSE — Apache License 2.0. Lançamento open-source original em abril de 2025. ↩↩↩
-
Codex CLI v0.106.0 — Script de instalação direta, js_repl promovido para /experimental (Node 22.22.0+), request_user_input no modo Default, esquecimento de memória baseado em diff, correção de bypass de sandbox por fork do zsh, limite de entrada de ~1M caracteres, correção de sub-agente com Ctrl-C. 26 de fevereiro de 2026. ↩↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.105.0 — Destaque de sintaxe na TUI com /theme, transcrição de voz, spawn_agents_on_csv, /copy /clear Ctrl-L, controles de aprovação flexíveis, sistema de arquivos /dev no Linux, recuperação de erros no js_repl. 25 de fevereiro de 2026. ↩↩↩↩↩↩↩↩↩↩
-
Codex CLI v0.107.0 — Fork de threads em sub-agentes, seleção de dispositivo de voz em tempo real, saída multimodal de ferramentas personalizadas, memórias configuráveis com
codex debug clear-memories. 2 de março de 2026. ↩↩↩↩↩↩ -
Codex Changelog — App v26.226 — Atalhos MCP no compositor, @mentions em comentários de revisão, tratamento de erros em diagramas Mermaid. 26 de fevereiro de 2026. ↩↩↩