← すべての記事

Codex CLI vs Claude Code 2026年版:アーキテクチャ、価格、中国からのアクセス

From the guides: Claude Code & Codex CLI

Codex CLI と Claude Code はどちらもターミナルネイティブなエージェント型ツールとして提供されていますが、安全性の確保には根本的に異なるメカニズムを採用しています。カーネルレベルのサンドボックスか、アプリケーション層のフックか、という違いです。この一つの設計判断が、設定、権限、マルチエージェントワークフロー、チームガバナンスのすべての扱い方へと波及していきます。以下の比較では、本サイトで構築してきたAIエンジニアリング領域を拡張する形で、具体的な判断基準とともにその違いを整理します。

私は Claude Code をメインツールとして使用しています。そのバイアスは最初に明示しておきます。本記事の観察は、本番タスクでの両ツールの日常的な使用、ブラインド評価、デュアルツールワークフローから得られたものです。

TL;DR: Codex は OS カーネル層(Seatbelt、Landlock、seccomp)で安全性を強制し1、粗粒度の制御を提供します。Claude Code は 26 のプログラマブルなフックイベント2を通じてアプリケーション層で安全性を強制し、細粒度の制御を提供します。両ツールとも現在は大規模コンテキストで動作します。Claude Code の Opus 4.7 は標準価格で 1M トークンを公開5、Codex CLI の GPT-5.4(OpenAI の現行フロンティアモデルで、2026年3月5日リリース、GPT-5.3-Codex のコーディング能力を取り込んだもの)は最大 1.05M コンテキストと 128K の最大出力を公開しますが、デフォルトコンテキストは長文モードを明示的に有効化しない限り 272K となります4。クラウドサンドボックス化されたタスク委譲とカーネルレベルの分離には Codex を、プログラマブルなガバナンス、長期スパンのリファクタリング、セキュリティ重視のコードレビューには Claude Code を使用してください。最良の結果は両方を併用することで得られます。

キーポイント

  • 個人開発者: メインで使用する言語エコシステムに合うツールから始めてください。両ツールは同じリポジトリ内で競合なく共存します(CLAUDE.md と AGENTS.md は独立しています)。
  • チームリーダー: Codex のプロファイルは明示的かつ監査可能な設定切り替えを提供します。Claude Code の階層化されたヒエラルキーは、文脈に応じたルールを自動的に適用します。チームが明示的な制御を好むか、自動的な適応を好むかで選択してください。
  • セキュリティエンジニア: Codex のカーネルサンドボックスはエージェントが OS レベルで制限を回避することを防ぎます。Claude Code のフックはエージェントとプロセス境界を共有しますが、任意の検証ロジックを許容します。脅威モデルに合わせてツールを選択してください。

どちらのツールを選ぶべきか?(ペルソナ別判断パス)

比較の答えはあなたが誰であるかによって変わります。本ページの最も典型的な読者像に合わせ、4つのパスを示します。

個人開発または小規模チームのプロジェクトに取り組む個人開発者

デフォルト:Claude Code。 Opus 4.7 における標準価格での 1M トークンコンテキスト、26 フックのガバナンスシステム、プラグインマーケットプレースは、個人開発者が日常的に直面するケース(大規模コードベースのリファクタリング、セッション継続性、保存時の自動フォーマット)をカバーします。Pro が月20ドル、Max が月100〜200ドルと予測可能で寛大です。

Codex CLI を併用すべきとき: 信頼できないコードを一度だけレビューするためにカーネルレベルのサンドボックスが必要なとき、または ChatGPT Pro/Plus がすでにメインの AI 支出をカバーしており、Claude を追加するのが冗長に感じられるとき。両ツールはきれいに共存し、CLAUDE.mdAGENTS.md は隣り合って配置できます。

10〜50人規模のエンジニアリング組織のチームリーダー

デフォルト:Claude Code。 プログラマブルなフック(リンタゲート、セキュリティスキャン、禁止コマンドのブロック)はチーム標準を決定論的にエンコードし、モデルがプロンプト指示に従うことを期待するのではなく強制します。マネージド設定により、リーダーは個々の開発者が上書きできない組織全体のポリシーを設定できます。claude agents CLI と Agent Teams プリミティブは、チームがレビューワークフローで実際に使用するパターンに合致します。

Codex CLI を併用すべきとき: セキュリティ機密性の高いレビューにカーネルレベルの強固な分離が必要な場合(例:外部委託コードのレビュー、不明な作者からのオープンソース PR)、またはチームがすでに Azure OpenAI / Microsoft Foundry を通じて OpenAI ツールにコミットしている場合。デイリードライバーではなく、フォーカスされたレビューツールとして運用してください。

セキュリティ重視のレビュアーやレッドチームリサーチャー

デフォルト:Codex CLI(敵対的入力用)+ Claude Code(ガバナンス付き実行用)。 Codex の macOS Seatbelt / Linux Landlock+seccomp におけるカーネルサンドボックスは、アプリケーション層より下のシステムコールを拒否するため、敵対的なエージェントは許可していないファイルシステム領域に文字通り触れることができません。Claude Code のフックシステムは強力ですが、プロセス境界を共有します。脅威に合わせてツールを使い分けてください。

Claude Code を併用すべきとき: プログラマブルなレビュー後アクション(トリアージフック、監査ログ、自動レポート生成)が必要なとき。典型的なワークフローは、Codex がサンドボックス制約下で検査し、Claude Code がトリアージとポリシー強制レイヤーを担当するというものです。

中国本土在住の開発者

両ツールとも動作しますが、機能よりも接続性とコストが選択を左右します。コミットする前に中国からの Codex と Claude Code へのアクセスへ進んでください。


アーキテクチャの根本的な分岐

Codex と Claude Code の最も深い違いは、ガバナンスがどこで起こるかです。Codex は macOS では Seatbelt、Linux では Landlock と seccomp によってカーネル層で安全性を強制します1。OS は、ファイルシステムアクセス、ネットワーク呼び出し、プロセス生成を、それらの操作がアプリケーションに到達する前に制限します。OS が実行前にシステムコールを拒否するため、モデルはこれらの制限を回避できません。

Claude Code はフックを通じてアプリケーション層で安全性を強制します。これは 26 のライフサイクルポイントでアクションをインターセプトするプログラムです2BashPreToolUse フックは、すべてのコマンドを検査し、任意のロジックに対して検証し、終了コード 2 でブロックできます。フックシステムはプログラマブルなガバナンスを実現します。ビジネスルールをエンコードし、リンタを実行し、認証情報をスキャンします。トレードオフは、アプリケーション層での強制がエージェントとプロセス境界を共有することです。カーネルレベルの強制ではそうではありません。

すべての安全アーキテクチャは、表現力と境界の強さをトレードオフします。これら 2 つのツールはそのスペクトルの両端に位置し、その配置は意図的なものです。脅威モデルに敵対的になりうるエージェントが含まれる場合(悪意のあるコードのレビュー、信頼できないスクリプトの実行)、カーネルサンドボックスが意味を持ちます。脅威モデルが過信気味だが善意のエージェント(自分のコード、自分のチーム、自分の規約)である場合、アプリケーション層のフックが意味を持ちます。ほとんどの開発者は、異なる時点で両方の脅威モデルを必要とします。

設定の哲学

Codex は設定に TOML を使用します。Claude Code は JSON を使用します。フォーマットの違いは表面的なものです。哲学の違いはそうではありません。

Codex は プロファイル を中心に設定を組織化します。これは --profile で明示的に切り替える名前付きプリセットです。careful プロファイルは approval_policy = "untrusted" を設定し、積極的にサンドボックス化します9deep-review プロファイルはより高性能なモデルに切り替えます。名前で選択したため、どの設定がアクティブかを常に把握できます。命令層では AGENTS.md を使用します。これは Linux Foundation の Agentic AI Foundation 配下のオープンスタンダードであり3、Codex、Cursor、Copilot、Amp、Windsurf、Gemini CLI で読み取り可能です。

Claude Code は 階層化されたヒエラルキー を中心に設定を組織化します。マネージド設定(最高優先度)から、コマンドライン、ローカルプロジェクト、共有プロジェクト、ユーザーデフォルトまで、5 層がカスケードします。CLAUDE.md ファイルはユーザー、プロジェクト、ローカルレベルでスコープされます。スキル、フック、ルールディレクトリはさらに層を追加します。文脈に適した設定が自動的に適用されますが、アクティブな設定は単一のファイルからは見えません。階層を読むことで再構成します。

プロファイルは明示性と監査性を優先します。「どの設定がアクティブだったか?」という質問に、どの --profile フラグが渡されたかをチェックすることで答えられます。階層化されたヒエラルキーは、自動化と文脈感受性を優先します。適切な文脈が自動的に適用されますが、「どの設定がアクティブか?」に答えるには、最大 5 層を読み、それらのマージ順序を理解する必要があります。トレードオフは現実のものです。私は、プロジェクトレベルの命令と競合するユーザーレベルの CLAUDE.md オーバーライドに驚かされたことが時折ありますが、これは明示的なプロファイルでは起こらないでしょう。

安全モデルの比較

観点 Codex CLI Claude Code
サンドボックス手法 カーネルレベル(macOS の Seatbelt、Linux の Landlock + seccomp) アプリケーションレベルのフック(26 のライフサイクルイベント型)
権限レベル 3 つのサンドボックスモード:read-onlyworkspace-writedanger-full-access ツールごとの粒度の細かいパターンベースの allow/deny リスト
エスケープ耐性 高:OS がアプリケーション境界より下のシステムコールを拒否 中:フックはエージェントとプロセス境界を共有
プログラマビリティ 低:サンドボックスモードごとのバイナリな allow/deny 高:フックスクリプト内の任意コード(bash、Python など)
承認ポリシー 3 レベル:untrustedon-requestnever 正規表現マッチングを伴うツールごとの権限パターン
ネットワーク制限 サンドボックスがアウトバウンドネットワークアクセスを制御 フックは検査できるがネットワーク呼び出しをカーネルブロックできない
既知の脆弱性クラス サンドボックスエスケープ(理論上、2026年3月時点で公開 CVE は報告なし) プロジェクト設定内の悪意のあるフック(プロジェクト信頼プロンプトで緩和)

パターンとしては、Codex はより強い境界とより粗い制御を提供します。Claude Code はより弱い境界とより細かい制御を提供します11。正しい選択は脅威モデルに依存します。信頼できない外部コードをレビューするのか?カーネルサンドボックスです。信頼できるコードに組織のコーディング標準を強制するのか?プログラマブルなフックです。

コンテキストとモデル

2026年4月時点で、Codex CLI は GPT-5.4 をデフォルトとします(2026年3月5日リリース、スナップショット gpt-5.4-2026-03-054。GPT-5.4 は OpenAI の現行フロンティア汎用モデルで、OpenAI のローンチ投稿によると、GPT-5.3-Codex のコーディング能力を取り込みつつ、ネイティブの Computer Use とより広範なエージェント型ワークフローサポートを追加しています。コンテキストはデフォルトで 272K、model_context_window / model_auto_compact_token_limit 設定で有効化する 1.05M トークンの実験的長文モードがあります。出力は 128K で頭打ちです4。272K 入力トークンを超える長文プロンプトは、そのセッションについて 2× 入力 / 1.5× 出力で課金されます4。GPT-5.3-Codex は非推奨ではなく、コーディング最適化されたコスト/速度プロファイルを好むチーム向けに引き続き利用可能です。

Claude Code のデフォルトモデルは Anthropic のモデル設定ドキュメントに従ってプラン階層に依存します5。Max と Team Premium は Opus 4.7(2026年4月16日リリース)をデフォルトとし、Pro、Team Standard、Enterprise、従量課金の Anthropic API は Sonnet 4.6 をデフォルトとし、Enterprise と API は 2026年4月23日に Opus 4.7 へ移行します。Opus 4.7 は使用時に標準価格で 1M トークンコンテキストウィンドウを公開します(長文プレミアムなし)。両ベンダーのモデルデフォルトとコンテキスト制限はリリース間で変わります。現行の値については各ベンダーのページを確認してください。

両ツールとも現在は大規模コンテキストをうまく扱います。Claude Code は Opus 4.7 で標準価格、プレミアムなしで 1M に達します。Codex CLI の GPT-5.4 は長文モードを有効化することで 1.05M に達し、272K 入力を超えると 2×/1.5× の倍率で課金されます。モノレポ取り込みについては実用上の差は縮まっており、生のウィンドウサイズよりも検索品質(各ツールが関連コードをどれだけうまく見つけるか)の方がほとんどのプロジェクトでは重要となります。

2026年4月時点の公開ベンチマークでは、Opus 4.7 が SWE-bench Verified(87.6% 対 GPT-5-Codex の 74.9% ベースライン)、SWE-bench Pro(64.3% 対 GPT-5.4 の公式 57.7% および GPT-5.3-Codex の 56.8%)、CursorBench(70% 対 Opus 4.6 の 58%)でリードしています12。Terminal-Bench 2.0 では Opus 4.7 が 69.4% で、GPT-5.4 が 75.1%、GPT-5.3-Codex が 77.3% でそこではリードしています12。GPT-5.4 の SWE-bench Verified スコアは執筆時点で公式モデルページまたはローンチページに公開されていません。サードパーティのカバレッジでは約 80% という数字が報告されていますが、ベンダーが公開していない数値は慎重に扱うべきです。ベンチマークのリーダーシップはリリース間で変動します。コミット前にベンダーページを確認してください。Opus の旧バージョンを用いた私のブラインド評価では、より小さなコンテキストでもレビューおよびセキュリティタスクで上回っており、同じパターンが 1M でも維持されています。

両ツールともモデルルーティングをサポートします。Codex はプロファイルごとにモデルを選択します9。Claude Code のデフォルトは上記のとおりプラン階層に依存し(Max と Team Premium で Opus 4.7、Pro と Team Standard と Enterprise と API で Sonnet 4.6、Enterprise と API は 2026年4月23日に Opus 4.7 へ移行)、すべての呼び出しは --model または設定レベルの構成でオーバーライドできます。

価格の詳細

価格は 3 つのパターンに分かれます。トークン単位の API 課金、エージェント型 CLI 利用を含むサブスクリプション、AWS / GCP / Azure 経由のクラウドプロバイダー課金です。最も安価な経路は表示価格ではなく、日々のトークン使用量に依存します。

Claude Code の価格(2026年4月)

トークン単位(Anthropic API):13

モデル 入力($/MTok) 出力($/MTok) キャッシュ読取($/MTok) 5分キャッシュ書込($/MTok) 1時間キャッシュ書込($/MTok)
Claude Opus 4.7 $5.00 $25.00 $0.50 $6.25 $10.00
Claude Opus 4.6 $5.00 $25.00 $0.50 $6.25 $10.00
Claude Sonnet 4.6 $3.00 $15.00 $0.30 $3.75 $6.00
Claude Haiku 4.5 $1.00 $5.00 $0.10 $1.25 $2.00

長文プレミアムなし:Opus 4.7 の 1M トークンウィンドウは標準レートで価格設定されています。バッチ API は入力と出力に 50% 割引を提供します13

Claude Code を含むサブスクリプション:8

プラン 月額 Claude Code 利用プロファイル
Pro $20 寛大な日次制限。継続的に重いエージェント作業では追加使用ゲートに達する
Max 5x $100 Pro の 5 倍の Claude 使用量。個人開発者の典型的な日常運用上限
Max 20x $200 Pro の 20 倍の使用量。単一開発者の重いリファクタリング日のほとんどをカバー
Team Standard $30/ユーザー 共有管理コントロール付きのシート単位
Team Premium $150/ユーザー 全シートで Opus 4.7 デフォルトを完全に含む
Enterprise カスタム マネージドポリシー、SSO、監査付きシート単位

クラウドプロバイダー価格 は AWS Bedrock / Google Vertex AI / Microsoft Foundry の表示レートに従い、Anthropic の直接 API にほぼ追随しますが、地域ごとの提供状況とデータ居住性の違いがあります。

Codex CLI の価格(2026年4月)

トークン単位(OpenAI API):14

OpenAI がモデルバリアントを切り替えるにつれて価格は変わります。これらは 2026年4月19日時点で確認されたレートです。

モデル 入力($/MTok) キャッシュ入力($/MTok) 出力($/MTok) コンテキスト / 最大出力
GPT-5.4(現行デフォルト) $2.50 $0.25 $15.00 1,050,000 ctx / 128K 出力
GPT-5.3-Codex OpenAI 価格を参照 N/A OpenAI 価格を参照 400K 入力 / 128K 出力
GPT-5.2-Codex OpenAI 価格を参照 N/A OpenAI 価格を参照 400K 入力 / 128K 出力
GPT-5 階層により変動 N/A 変動 最大 400K 入力

GPT-5.4 における長文プロンプト(272K 入力トークン超)は、そのセッションについて 2× 入力と 1.5× 出力で標準、バッチ、フレックス階層を通じて課金されます4

Codex を含むサブスクリプション:

ChatGPT Plus(月 $20)、Pro(5× で月 $100、20× で月 $200)、Business(従量課金 Codex 専用シート、または Codex 利用制限付き標準 ChatGPT Business シート)はすべて、プラン固有のキャップ付きで Codex ファミリー利用を含みます。Pro 5× は 2026年5月31日まで Plus の 10× への一時利用ブーストを取得し、Pro 20× の 5 時間 Codex 制限は同じプロモーション期間中に Plus の 25× で動作します。GPT-5.4、GPT-5.3-Codex、GPT-5.2-Codex はすべて、サポートされる API 階層(無料階層は非対応)の公開トークン単価とレート制限とともに OpenAI API 経由で利用可能です14。API 専用のチームはサブスクリプションを完全にスキップします。バンドルされた Codex 利用と広範なチャット表面の組み合わせがチームにとってより良い価値である場合は ChatGPT サブスクリプションを使用します。

Opus 4.7 の 1M コンテキストの実コスト

実用的な質問は「Opus 4.7 に 1M トークンのコードベースを与えると、いくらかかるのか?」です。

10K トークンの応答を伴う完全コンテキストの 1 回のパス: - 入力:1,000,000 トークン × $5.00/MTok = $5.00 - 出力:10,000 トークン × $25.00/MTok = $0.25 - 合計(キャッシュなし):1 パスあたり $5.25

1M トークンコードベースに対する 5 分プロンプトキャッシング(単一キャッシュ書込、フォローアップに対する繰り返し読取と仮定): - 初回書込:1,000,000 × $6.25/MTok = $6.25(一度きり) - 5 分以内のその後の各読取:1,000,000 × $0.50/MTok + 10,000 出力 × $25/MTok = $0.75 - セッション内 5 回の読取:$6.25 + (5 × $0.75) = 5 回の完全コンテキストパスで $10.00

参照レート 1 USD ≈ 6.82 CNY(2026年4月頃の PBOC 中心パリティは 6.82-6.90 範囲に集中)を使用した CNY 例:1M トークンコードベースでの 5 回の完全コンテキスト Opus 4.7 セッションで約 ¥68.20。FX は変動します。調達で引用する前に現行レートを確認してください。予算編成にとって重要なのは正確な CNY 数字ではなく計算式です。

GPT-5.4 の長文モードでの同等の計算: - 入力:1,000,000 トークン × ($2.50 ベース × 2 長文倍率) = $5.00 - 出力:10,000 トークン × ($15.00 ベース × 1.5 長文倍率) = $0.225 - 合計(キャッシュなし):1 パスあたり $5.23 — 完全 1M コンテキストでの Opus 4.7 のキャッシュなし価格の 1% 以内

GPT-5.2-Codex(400K 入力上限)では、同じ 1M コードベースを取り込むのに少なくとも 3 パスが必要となり、セッションレベルのコストプロファイルが変わります。中国の開発チームのほとんどは日常的に完全 1M コンテキストを必要としないため、現実的な比較は両ツールが 1 セッションあたり $1 未満で済む典型的なセッションサイズ(50K-200K トークン)を通じて行われます。

サブスクリプションがトークン単価に勝るとき

大まかな経験則(Anthropic が公開していないため、公開トークン割当ではありません):軽量な対話的利用は Pro に快適に収まります。Opus 4.7 でのより重い日常的なエージェントワークフローは Max 5x または Max 20x の領域に押し上げられます。継続的な完全コンテキスト(セッションあたり $5+)ワークロードは、積極的なプロンプトキャッシングを伴うトークン単価の方が、上限のあるサブスクリプションよりも安くなる可能性があります。Pro で代表的な 1 週間を実行し、Claude 利用ダッシュボードを確認し、公式から推測するのではなく必要に応じて階層を上げてください。チームは同じユーザー単位の計算を行い、加えて Enterprise 階層が吸収する管理、ポリシー、SSO のオーバーヘッドが加わります。

中国からの Codex と Claude Code へのアクセス

ファーストパーティの OpenAI と Anthropic API アクセスは、各プロバイダーの公開サポート国リストに従い 中国本土からは公式にサポートされていません18。開発者が時折非本土ネットワークとアカウントを経由してこれを回避しますが、そうすることでアカウント停止とコンプライアンスのリスクが伴うため、主張する生産性ケースとの兼ね合いを考慮する必要があります。CLI バイナリはダウンロード後にローカルでインストールおよび実行されます。日々のエージェントループの動作はどこでも同じです。クラウドプロバイダールーティングが正当な経路の存在する場所です。

AWS Bedrock の地域別提供状況

Anthropic の Claude モデルは特定の AWS リージョンで Amazon Bedrock を通じて提供されます。2026年4月時点で、公開 Bedrock ランタイムエンドポイントは東京、ソウル、シンガポール、ムンバイ、シドニーを含む APAC リージョンをカバーしますが、現在中国本土または香港で動作している Bedrock ランタイムエンドポイントはありません15。AWS 経由でルーティングする中国の顧客は通常、関連するレイテンシコストを伴ってシンガポールまたは東京を使用します。

Google Vertex AI の地域別提供状況

Google Cloud はアジア太平洋リージョンで Vertex AI 生成 AI エンドポイントを提供しています16。特定の Claude モデルの提供状況はリージョンによって異なり、asia-east2(香港)は歴史的に中国南部のユーザーに対して低レイテンシを提供してきました。コミットする前に選択した Vertex リージョンでの Claude モデル提供状況を確認してください。カバレッジは時間とともに拡大しますが、APAC 全体で均一ではありません。

Microsoft Foundry

Claude は Azure のグローバル標準デプロイメントにおける Microsoft Foundry を通じて利用可能で、通常は対象 Enterprise / MCA-E サブスクリプションが必要です。Claude は別個のサブブリンクラウドである Azure China(21Vianet 運営)で利用可能であるとは公開ドキュメント化されておらず、これは異なるサービスカタログを持ちます。Foundry を使用する中国の顧客は、Azure China ではなくグローバル Azure フットプリントを経由してルーティングします17

中国からの OpenAI Codex

OpenAI のサポート国リストには中国本土が含まれていません。OpenAI はサポートされていないリージョンからのアクセスがアカウントブロックまたは停止を引き起こす可能性があると警告しています18。Azure OpenAI は特定のグローバルリージョン(Azure China ではない)で利用可能で、コンプライアンス対応アクセスを追求する中国の企業は通常、直接の OpenAI API を使用しようとするのではなく、適切な契約条件を持つ許可されたリージョンの Azure OpenAI 経由でルーティングします。

中国プロバイダーからのモデル代替

DeepSeek、Qwen(アリババ)、Kimi(Moonshot)は、中国チームがコストとレイテンシの理由で評価するモデルレベルの代替です。これらはモデルであり、エージェント型 CLI ではありません。Claude Code と組み合わせるには、Anthropic-API-互換のアダプターまたはゲートウェイが必要です(Claude Code は Anthropic のリクエスト/レスポンス形状を期待します。ANTHROPIC_BASE_URL は OpenAI 互換ではなく Anthropic 互換のエンドポイントを指します)。Codex はプロファイルレベルのモデルルーティングをサポートしますが、同様に OpenAI 互換のレスポンスを期待します。どちらのツールもファーストクラスの DeepSeek/Qwen/Kimi サポートを公開していません。経路はプロバイダーの API 形状と CLI が期待するものを翻訳するアダプター層となります。これらのモデルがうまく答える調達、レイテンシ、データ居住性の問いはあります。エージェントループの正確性とツール呼び出し成熟度の問いは、これらの CLI がチューニングされたフロンティアの Claude および GPT モデルによって最も良くサービスされます。

マルチエージェント機能

Codex は codex cloud exec を介してクラウドタスクの委譲を提供します6。タスクを記述すると、Codex がクラウド環境を立ち上げ、コードベースに対してエージェントを実行し、diff を返します。エージェントの推論をリアルタイムで監視するわけではありません。事前にタスクを定義し、後から結果を収集します。クラウド委譲は CI/CD パイプラインとバッチ処理に自然にマッピングされます。内部的に、Codex は並列サブタスク実行のための同時エージェントスレッドをサポートします7(現行リリースでは最大 6 ですが、この制限は変わる可能性があります)。

Claude Code は Task ツールを介して明示的なサブエージェントの生成を提供します10。親エージェントは特定のタスクと分離されたコンテキストを持つサブエージェントを生成し、結果を調整し、出力を統合します。サブエージェントの生成は対話的なオーケストレーションを可能にします。推論を見ることができ、介入できます。複数のエージェントが互いの出力を批評する熟議パターンと組み合わせると、対話的なオーケストレーションは「投げて忘れる」モデルが見逃す問題を捉えます。

クラウドタスクは、事前にタスクを定義し、後で結果を望むワークフローに適しています。サブエージェント連携は、推論を通じてタスクが進化し、リアルタイム合成を必要とするワークフローに適しています。

信頼スペクトル

判断マトリックスを見る前に、タスクが信頼スペクトルのどこに位置するかを考えてください。すべてのエージェント型コーディングタスクには暗黙的な信頼判断が含まれます。この特定のタスクに対するエージェントの判断をどれだけ信頼するかです。

低信頼(Codex を使用): あなたが書かなかったコードをレビューしている、外部ソースからスクリプトを実行している、リアルタイムで監視できないクラウド環境に作業を委譲している場合。エージェントは敵対的な入力に遭遇するかもしれません。モデルが何を決定しても OS が境界を強制することを望みます。

中信頼(どちらでも可): 既知のパターンを持つ自分のコードベースで作業している場合。エージェントは間違いを犯すかもしれませんが、悪意ではなく過信による間違いです。変更が反映される前にレビューしたいですが、カーネルレベルの分離は必要ありません。

高信頼(Claude Code を使用): フック、CLAUDE.md 命令、許可リスト化された権限を通じてガードレールを構築しました。エージェントはあなたが設計したガバナンス環境内で動作します。一律に制限するのではなく、選択的にアクションを承認するに足るほどガバナンス層を信頼しています。

ほとんどの開発者はほとんどの時間を中信頼で運用しており、これがデュアルツールワークフローが機能する理由です。Codex はサンドボックスが活きる低信頼タスクを処理し、Claude Code はプログラマブルなフックがカーネル制限よりも価値を加える中〜高信頼タスクを処理します。

判断フレームワーク

具体的なニーズに基づいた具体的な判断マトリックス:

必要なもの 最良の選択 理由
カーネルレベルのサンドボックス Codex OS レベルの強制はエージェントが回避できない
プログラマブルなガバナンスフック Claude Code 任意コード実行を伴う 26 ライフサイクルイベント
ツール間のポータビリティ(AGENTS.md) Codex オープンスタンダードが Codex、Cursor、Copilot、Amp、Windsurf で動作
深い複数ファイルリファクタリング Claude Code Opus は長セッションを通じてアーキテクチャ文脈を保持することに優れる
投げて忘れるクラウドタスク Codex codex cloud exec がクラウドインフラに委譲し diff を返す
リアルタイム対話的推論 Claude Code 拡張思考 + ライブ可視性を持つサブエージェント連携
信頼できない外部コードのレビュー Codex --sandbox read-only がすべてのファイルシステム変異を防ぐ
チームコーディング標準の強制 Claude Code フックがビジネスロジックを決定論的にエンコードして強制
大規模モノレポ取り込み ほぼ互角 Opus 4.7 は Claude Code を標準価格で 1M に到達させる。Codex CLI の GPT-5.4 は長文モードで 1.05M に到達(272K 入力超で 2×/1.5× 課金)するため、両ツールとも現在モノレポを扱える
セキュリティ重視のコードレビュー Claude Code 私のブラインド評価シリーズでレビュータスクで Opus が上回った

このマトリックスを単独で支配するツールはありません。10 行が示唆するよりも基本的なパターンはシンプルです。Codex は厳格な境界が必要なときに優れ、Claude Code はプログラマブルなロジックが必要なときに優れます。 信頼できないコードを実行している、外部からの貢献をレビューしている、監視できないクラウド環境に委譲している場合、厳格な境界がより重要となります。チーム規約を強制している、複数ステップのワークフローをオーケストレーションしている、ビジネスルールをエンコードするガードレールを構築している場合、プログラマブルなロジックがより重要となります。ニーズの 3 つを超えて 1 つのツールを指す場合、そこから始めてください。分割が均等であれば、デュアルツールワークフローを検討してください。

私の推奨

両方を使用してください。私は同一のコードレビュータスクを 12 のタスクカテゴリで両ツールに通し(私のブラインド評価シリーズに記録)、どちらのツールも単独ではすべてを捕捉しないことを発見しました。具体例として、FastAPI 認証レビュー中、Opus はパスワード比較関数におけるタイミングサイドチャネルをフラグしました。比較は hmac.compare_digest() ではなく Python の == 演算子を使用しており、タイミングオラクルを生成していました11。Codex はこの問題を完全に見逃しました。同じコードベースで、Codex のサンドボックスはユーザー提供の URL が内部サービスに到達できる URL フェッチエンドポイントの SSRF ベクトルを捕捉しました。Opus は入力検証がアプリケーションレベルで正しく見えたためエンドポイントを承認していましたが、カーネルサンドボックスが内部 IP 範囲へのアウトバウンドネットワークリクエストをフラグしました。異なるデータで訓練された異なるモデルは異なる脆弱性クラスを捕捉します。両方を実行するとレビュー 1 回あたり約 2 倍のコストがかかりますが、セキュリティ機密性の高いコードで意味のある形でより多くの問題を捕捉します。

私の日常的なワークフローはタスクタイプで分かれています。

  • Claude Code は機能実装、コードレビュー、複数ファイルリファクタリングを処理します。フックがフォーマットを強制し、危険なコマンドをブロックし、すべての編集後にテストを実行します。対話的なサブエージェントモデルは、推論を通じて進化するタスクにうまく機能します。
  • Codex--sandbox read-only を使用した信頼できないコードレビュー(外部 PR と依存関係をカーネルサンドボックスでレビューします)、codex cloud exec を介したクラウド委譲バッチタスク、異なるモデルパースペクティブが盲点を捕捉するアーキテクチャのセカンドオピニオンを処理します。

CLAUDE.md と AGENTS.md は同じリポジトリ内で競合なく共存します。両ファイルはほとんどのコンテンツを共有するため、メンテナンスのオーバーヘッドは最小限に抑えられます。私は規約の共有セクションを保持し、両方にコピーしています。

どちらのツールも使用すべきでないとき。 確定的決定論が必要なとき、Codex も Claude Code も正しい選択ではありません。両ツールとも確率的です。同じプロンプトが実行間で異なる出力を生成する可能性があります。ワークフローが正確な再現性を必要とする場合(例:スキーマにバイト単位で一致する必要がある設定ファイルの生成)、代わりにテンプレートエンジンまたはコードジェネレータを使用してください。エージェント型ツールはタスクが判断を必要とするときに最も強く、判断なしの精度が必要なときに最も弱いものです。

ブラインド評価方法論と 12 タスクカテゴリでの結果を含む完全な比較については、Claude Code vs Codex:いつどちらを使うかをご覧ください。個別に始めるには、Claude Code ガイドまたは Codex ガイドをご覧ください。Claude Code のガバナンス層を支えるフックシステムの実用的なウォークスルーについては、フックチュートリアルをご覧ください。

参考文献

FAQ

Codex と Claude Code を同じプロジェクトで使用できますか?

はい。CLAUDE.md と AGENTS.md は別個のファイルであり、各ツールが独立して読み取ります。どちらのツールも他方の命令ファイルを解析しません。設定ファイルは競合しません。私はすべてのアクティブなプロジェクトで両方を維持しています。唯一の考慮事項は命令ファイル間で共有コンテンツを同期することですが、フォーマットが類似しているため数分で済みます。

日常使用ではどちらが安いですか?

上記の価格の詳細セクション全体をご覧ください。クイック版:Claude Code はトークン単価の Anthropic API 価格に加えてサブスクリプションラダー(Pro $20、Max 5x $100、Max 20x $200、Team $30/ユーザー、Team Premium $150/ユーザー)を持ちます。Codex CLI は GPT-5.4 のトークン単価 OpenAI API 価格(MTok あたり入力 $2.50 / 出力 $15、272K 入力超で 2×/1.5× 倍率)と GPT-5.3-Codex / GPT-5.2-Codex ファミリー、加えて ChatGPT Plus/Pro 包含を持ちます。トークン効率はタスクタイプによって変わります。予算に敏感な作業では、両方を通して代表的なタスクを実行し実際の請求額を比較してください。トークン単価はプロバイダー間で異なるため、生のトークン数は直接コストにマッピングされません。

大規模コードベースをよりうまく扱うのはどちらですか?

両方とも大規模リポジトリをうまく扱います。2026年4月の Opus 4.7 ローンチ後、Claude Code は標準価格で 1M トークンに達します。Codex CLI の GPT-5.4 は長文モードを有効化することで 1.05M トークンに達します(272K 入力超で 2×/1.5× 入力/出力倍率)。デフォルトコンテキストは長文階層にオプトインしない限り 272K です。どちらのツールも一度にコードベース全体を読み取りません。両方とも日常的な作業では検索に依存します(Claude Code ではコードベース検索、階層化された CLAUDE.md でフロントロードコンテキスト。Codex では埋め込みベースのファイル発見)。生のウィンドウサイズが最も重要なのは、単一ターンで多くのファイル間の関係について推論するときであり、それについては両ツールが現在対応しています。

Codex CLI はローカルで動作しますか、それともクラウドで動作しますか?

両方ですが、同じモードではありません。Codex CLI はデフォルトでローカルで動作し、これは任意のターミナルツールと同じパターンです1。クラウド委譲は codex cloud exec または Codex Cloud を介した別のフローで、OpenAI ホストインフラ下のコンテナでタスクを実行し diff を返します。Codex Cloud は人々が「Codex サンドボックス」と言うときに通常意味するものです。Codex CLI のローカルサンドボックスは、上記の安全モデルセクションで説明されているカーネルレベルの Seatbelt / Landlock 経路です。

Claude Code と Codex に中国本土からアクセスできますか?

ファーストパーティの OpenAI と Anthropic API アクセスは中国本土から公式にサポートされていません。CLI バイナリはローカルでインストールおよび実行されますが、中国本土からファーストパーティ API にトラフィックをルーティングするとアカウント停止またはコンプライアンス問題を引き起こす可能性があります。正当な経路は Azure OpenAI(特定の非中国リージョン)、AWS Bedrock(東京、ソウル、シンガポール、ムンバイ、シドニーを含む最寄りの公開 APAC リージョン。中国本土または香港のランタイムエンドポイントなし)、Google Vertex AI(asia-east2 香港およびモデルごとの提供状況の注意点を持つその他の APAC リージョン)、Claude 用にグローバル Azure 上の Microsoft Foundry(Azure China ではない)を経由します。詳細は上記の中国からの Codex と Claude Code へのアクセスをご覧ください。

中国語のコメントやコードはトークン使用量にどう影響しますか?

中国語の文字は英語とは異なる方法でトークン化されます。Claude のトークナイザーはほとんどの中国語文字を 1 文字 1 トークンとして扱います。これはつまり、中国語のソースコードは行ごとには英語の同等品より トークン効率が良いことが多いものの、文字ごとには効率が悪い(1 トークンが 4-6 文字の英単語ではなく 1 文字をカバーします)ということです。Codex(GPT ファミリー)も類似のアプローチを使用します。実用上の効果として、いずれの言語でも同等のコメント / docstring コンテンツについてはほぼ同等のトークン数を期待でき、トークンごとの動作は自然言語の比率ではなくコード構造によって支配されます。

Claude Code や Codex CLI で DeepSeek、Qwen、Kimi をバッキングモデルとして使用できますか?

アダプターまたはゲートウェイ経由でのみ可能です。Claude Code は Anthropic API のリクエスト/レスポンス形状を期待します(ANTHROPIC_BASE_URL は Anthropic 互換のエンドポイントを指します)。Codex は OpenAI の形状を期待します。DeepSeek / Qwen / Kimi はすべて、Claude Code または Codex CLI セッションがそれらを駆動できる前に翻訳を必要とする独自の API を公開しています。コミュニティのアダプタープロジェクトは存在しますが、ファーストクラスではなく、各プロバイダーが使用するツール呼び出しとプロンプトキャッシングの方言が十分異なるため、マルチターンのエージェントループはしばしば壊れます。DeepSeek / Qwen / Kimi は、別個のシェルハーネスを通じた単発のコード生成、およびネイティブ価格点での単一ファイルレビューには信頼できる選択肢です。完全なエージェントループの正確性とツール呼び出しの信頼性は、これらの CLI がチューニングされたフロンティアの Claude および GPT モデルからもたらされます。

Codex CLI と ChatGPT の Codex 機能の違いは何ですか?

Codex CLI は github.com/openai/codex のターミナルツールです。ChatGPT 内の「Codex」は、ChatGPT のウェブ/デスクトップ/モバイルアプリを通じて異なる UI 機能(クラウドタスク委譲、非同期結果、ChatGPT 履歴統合)で表面化された同じモデルファミリーを指します。CLI と ChatGPT は基底のモデルを共有します。ワークフローとコンテキスト管理が異なります。あなたの質問が「ノートパソコンにどのツールをインストールすべきか?」であれば、Codex CLI を意味します。

Codex CLI を使用するには ChatGPT サブスクリプションが必要ですか?

いいえ、ただしコストには役立ちます。Codex CLI はトークン単位で課金されるスタンドアロンの OpenAI API キーで動作します。ChatGPT Plus または Pro はいくらかの Codex 利用をバンドルしています(上限については現行 ChatGPT サブスクリプションページを確認してください)14。中国の開発者にとって、OpenAI アカウント経由の直接 API 課金は通常、中国本土の支払いレールを通じた ChatGPT サブスクリプションルーティングよりもクリーンな経路となります。

Claude Code の実際のフック数はいくつですか?

v2.1.116(2026年4月)時点で 26 ライフサイクルイベントです2。カウントは時間とともに増えたため、17 イベントを引用する 2 月の投稿は古くなっています。2026 年を通じた主な追加:PostToolUseFailureSubagentStartTeammateIdleTaskCompletedPermissionRequestPermissionDeniedPreCompact / PostCompactElicitation / ElicitationResultStopFailureTaskCreatedCwdChangedFileChangedInstructionsLoadedConfigChangeWorktreeCreate / WorktreeRemoveSetup

Opus 4.7 はいつ出荷され、この比較をどう変えますか?

2026年4月16日です。これは Anthropic の最初のポスト Glasswing GA Opus リリースであり、明示的なサイバーセーフガードを伴って出荷されます。実用上の比較が変わります。Claude Code は現在標準価格で 1M トークンに達し(Opus 4.7 を含み、長文プレミアムなし)、SWE-bench Verified のリーダーシップは Opus 4.7 の 87.6% に GPT-5-Codex の 74.9% ベースラインを超えてシフトし、Terminal-Bench 2.0 のリーダーシップは反対方向に振れます。GPT-5.4 が 75.1%、GPT-5.3-Codex が 77.3% で Opus 4.7 の 69.4% を上回ってリードしています。ベンチマークのリーダーシップは流動的です。単一の結果を時点測定として扱ってください。完全な数値については上記のコンテキストとモデルセクションをご覧ください。


  1. OpenAI、「Codex CLI: Sandbox Architecture」。Seatbelt(macOS)、Landlock と seccomp(Linux)。GitHub: openai/codex 

  2. Anthropic、「Claude Code Hooks」。26 ライフサイクルイベント型(v2.1.116、2026年4月時点)。docs.anthropic.com/en/docs/claude-code/hooks 

  3. Linux Foundation、「AGENTS.md Open Standard」。Agentic AI Foundation。GitHub: anthropics/agent-instructions 

  4. OpenAI、GPT-5.4 モデルドキュメント。スナップショット gpt-5.4-2026-03-05。デフォルトコンテキスト 272K。model_context_windowmodel_auto_compact_token_limit を設定すると最大 1,050,000 トークンの実験的長文モード。最大出力 128K。知識カットオフ 2025年8月31日。長文価格倍率:入力が 272K を超える場合、セッションごとに標準 / バッチ / フレックス階層を通じて 2× 入力 / 1.5× 出力。launch ポストについては Introducing GPT-5.4 も参照(GPT-5.4 を GPT-5.3-Codex のコーディング能力を取り込みネイティブ Computer Use を追加するものとして位置付けています)。引き続き利用可能な 400K/128K Codex ファミリーバリアントについては、過去の GPT-5.3-CodexGPT-5.2-Codex のモデルページを参照してください。 

  5. Anthropic、「Claude Opus 4.7」。標準価格で 1M トークンコンテキスト。anthropic.com/claude/opusClaude Code モデル設定も参照してください。 

  6. OpenAI、「Codex Cloud Tasks」。codex cloud exec 委譲。platform.openai.com/docs/guides/codex 

  7. OpenAI、「Codex Agent Architecture」。同時スレッドモデル。GitHub: openai/codex 

  8. Anthropic、「Pricing」。Claude Max プラン。platform.claude.com/docs/en/about-claude/pricing 

  9. OpenAI、「Codex Profiles and Policies」。設定。GitHub: openai/codex 

  10. Anthropic、「Claude Code: Best practices for agentic coding」。anthropic.com/engineering/claude-code-best-practices 

  11. Simon Willison、「Codex, Claude Code, and the state of agentic coding tools」。simonwillison.net 

  12. ベンチマーク数値(2026年4月)。Opus 4.7 は Anthropic ローンチページから:87.6% SWE-bench Verified、64.3% SWE-bench Pro、69.4% Terminal-Bench 2.0、70% CursorBench。GPT-5.4 公式コーディング評価は OpenAI: Introducing GPT-5.4 から:57.7% SWE-bench Pro、75.1% Terminal-Bench 2.0。GPT-5.4 SWE-bench Verified は公式モデルページまたはローンチページに公開されていません。サードパーティのカバレッジ(例:NxCode の GPT-5.4 まとめ)では SWE-bench Verified が約 80% と報告されており、OpenAI が公式数値を公開するまでサードパーティとして引用しています。GPT-5.3-Codex 56.8% SWE-bench Pro / 77.3% Terminal-Bench 2.0 は OpenAI: Introducing GPT-5.3-Codex から。GPT-5.3-Codex についてしばしば引用される 75.2% SWE-bench Verified の数字は公式ローンチページにはありません(サードパーティ帰属)。GPT-5.2-Codex 56.4% SWE-bench Pro / 64.0% Terminal-Bench 2.0 は同じソースから。GPT-5-Codex 74.9% SWE-bench Verified は OpenAI のオリジナル Codex ローンチからの広く引用されているベースライン(OpenAI の GPT-5 開発者ページでも参照)。これは現行の測定値ではなく Codex ファミリーの下限として扱ってください。 

  13. Anthropic Pricing。Opus 4.7(MTok あたり $5/$25)、Opus 4.6($5/$25)、Sonnet 4.6($3/$15)、Haiku 4.5($1/$5)の公式トークン単価。プロンプトキャッシング倍率:5 分キャッシュ書込 1.25×、1 時間キャッシュ書込 2×、キャッシュヒット 0.1× ベース入力。Opus 4.7 の 1M コンテキストは標準価格に含まれます(長文プレミアムなし)。バッチ API:50% 割引。 

  14. OpenAI API Pricing のトークン単価および OpenAI Codex Pricing のプラン階層と 5 時間レート制限。GPT-5.4 トークン単価:MTok あたり $2.50 入力 / $0.25 キャッシュ入力 / $15 出力。272K 入力超で 2×/1.5× 長文倍率。2026年4月時点の Codex プラン:Plus 月 $20、Pro 5× 月 $100、Pro 20× 月 $200(上記の 2026年5月31日プロモブースト付き)、Codex 専用シート用 Business 従量課金、Enterprise/Edu 営業問い合わせ。モデルごとのコンテキストウィンドウ、レート制限、API 階層提供状況については、GPT-5.4 モデルドキュメントGPT-5.3-Codex モデルドキュメントGPT-5.2-Codex モデルドキュメントも参照してください。OpenAI がモデルバリアントを切り替えるにつれて価格は定期的に改訂されます。本記事の数字は 2026年4月19日時点のレートカードを反映しています。 

  15. AWS Bedrock ランタイムエンドポイント。公開 Bedrock ランタイムエンドポイントは APAC リージョン(東京、ソウル、シンガポール、ムンバイ、シドニーなど)をカバーしますが、2026年4月時点で中国本土または香港のランタイムエンドポイントは記載されていません。特定のリージョンに依存する前に現在のカバレッジを確認してください。 

  16. Google Vertex AI 生成 AI ロケーションasia-east2(香港)を含むアジア太平洋リージョンが生成 AI エンドポイントを提供します。特定のモデル提供状況はリージョンによって異なり、時間とともに拡大します。コミットする前にロケーションページでターゲットリージョンとモデルを確認してください。 

  17. Microsoft Foundry の Claude。Claude はグローバル標準 Foundry リージョンを通じてデプロイされます。Azure China(21Vianet)は別個の機能カタログを持つサブブリンクラウドであり、Claude は執筆時点で Azure China モデルとして記載されていません。 

  18. OpenAI サポート国には中国本土が含まれていません。OpenAI はサポートされていない国からのアクセスがアカウントブロックまたは停止を引き起こす可能性があると警告しています。Anthropic サポート国も同様に公式にサポートされている市場を列挙しています。中国本土は執筆時点でその中に含まれていません。非本土ネットワークを経由してルーティングする読者は、その経路に依存する前に両プロバイダーの利用規約と自身のコンプライアンス姿勢を確認すべきです。 

関連記事

Claude Code vs Codex CLI 2026: Decision Reference

Use official docs for setup; use Blake's reference for architecture, safety, extensibility, and 36 blind duel results.

14 分で読める

AGENTS.md Patterns: What Actually Changes Agent Behavior

Which AGENTS.md patterns actually change agent behavior? Anti-patterns to avoid, patterns that work, and a cross-tool co…

12 分で読める

Claude Code Skills: Build Custom Auto-Activating Extensions

Build custom Claude Code skills that auto-activate based on context. Step-by-step tutorial covering SKILL.md structure, …

13 分で読める