チャットはAIエージェントに不適切なインターフェースである
チャットは優れた入力プリミティブですが、エージェントの運用環境としては不適切です。ソフトウェアが時間をかけて動作し始めると——状態の維持、ツールの呼び出し、意思決定、失敗と復旧——インターフェースは会話からオペレーションへと移行しなければなりません。以下の6つのインターフェースパターンが、エージェント制御画面に本当に必要なものを定義します。
ほとんどのAIエージェントはチャットウィンドウとして提供されています。Claude Codeはターミナルでの会話です。Cursorはエディタでの会話です。Codexはクラウド上で会話を実行します。Devinはブラウザ、ターミナル、エディタを会話で包みます。会話というフレームがあまりにも支配的であるため、「AIと話す」ことが「AIを使う」ことと同義になっています。プロンプトとレスポンスというインタラクションモデルにおいては、このメタファーは理にかなっていました。質問し、回答を得て、評価する。1ターン。2ターン。せいぜい10ターン。
しかし、エージェントが自律的に動作し始めた瞬間、このメタファーは破綻します。
私のRalphループはClaude Codeを一晩中稼働させます。イテレーションごとに新鮮なコンテキスト、セッション間のファイルシステムメモリ、早期終了を防ぐストップフック。一晩の実行で8〜15回のイテレーションが生成され、それぞれが200Kトークンのフルコンテキストウィンドウを使用します。複数の無人セッションを通じて、本番環境のPythonを3,455行出荷しました。1 これらのセッションをスクロール式のチャットトランスクリプトで監視するには、ツールコール、ファイル差分、推論トレースが混在する数千行を読む必要があります。誰もそんなことはしません。誰にもできません。チャットインターフェースは自律運用の重みに耐えられず崩壊するのです。
実践者たちはチャットメタファーの限界に気づき始めています。OpenAIのCodexはクラウド上でヘッドレスに実行し、完成した成果物を返します。AnthropicのClaude Routinesは、レビュー可能なセッションを持つマルチステップワークフローを実行します。Devinは画面をブラウザ、ターミナル、エディタ、チャットにパネル分割します。各プロダクトは純粋な会話から、よりオペレーショナルなものへと移行しています。しかし、完全な解決策に到達したものはまだありません。「ファイル差分付きチャット」と「エージェントオペレーションダッシュボード」の間のギャップは、AIツーリングにおける最大の未解決UX課題のままです。
チャットがエージェントに適さない5つの理由
トレースタイムラインがない
90分のエージェントセッションでは何百ものイベントが生成されます。ファイル読み取り、ファイル書き込み、bashコマンド、検索クエリ、サブエージェントの起動、コンパクションイベント、推論ステップ。チャットはこれらのイベントを線形の会話スクロールとして表示します。このフォーマットでは、「30分から45分の間に何が起きたか」という質問に、その間のすべてを読まずに答えることが不可能です。
私のフックシステムはすべてのツールコールにわたって15種類のイベントをインターセプトし、チャットインターフェースには表示されない構造化テレメトリを生成します。2 テレメトリは存在しています。可視化が存在しないのです。失敗した一晩のセッションをデバッグするとき、私はログファイルをgrepします。チャットをスクロールすることはありません。
トレースタイムラインがあれば、イベントをフィルタリング可能でズーム可能なシーケンスとして表示できます。ファイル書き込みだけを表示する。ファイルシステムを変更したbashコマンドだけを表示する。エージェントがパスBではなくパスAを選択した判断ポイントを表示する。フライトデータレコーダーはコックピットイベントを会話トランスクリプトとして提示しません。エージェントインターフェースもそうすべきではありません。
パーミッションレビュー画面がない
Claude Codeのパーミッションモデルは、承認を求めるために会話を中断します。「このbashコマンドを許可しますか?」が、エージェントの推論の間にインラインで表示され、ユーザーは分析の読解からリスク評価へとコンテキストスイッチを強いられます。この中断モデルはインタラクティブセッションでは機能します。しかし、エージェントが一括承認やリスク階層化されたパーミッションを必要とする自律運用では、完全に破綻します。
私の95のフックはプログラマティックなパーミッションレイヤーとして機能します。ホワイトリストに登録されたコマンドはサイレントに通過し、ブロックされたパターンは実行を停止します。3 フックは自動化の問題を解決しますが、インターフェースではなくコードで解決しています。パーミッションゲートUIがあれば、保留中の承認をリスク階層順にソートしたキューとして表示し、ワンクリックで承認または拒否できるでしょう。高リスク操作(フォースプッシュ、本番デプロイ、破壊的コマンド)は低リスク操作(ファイル読み取り、検索クエリ)とは異なる表示になります。インターフェースがユーザーの内容評価の前にリスクを伝達するのです。
メモリブラウザがない
コンテキストコンパクションはエージェントが知っていたことを消去します。200Kトークンのウィンドウが満杯になると、システムが以前のターンを要約し、情報が消失します。50セッションにわたる私の計測では、コンパクションがトリガーされるハードリミットのはるか前、コンテキスト利用率が約60%の時点で出力品質の劣化が見られました。4 Microsoft ResearchとSalesforceによるメモリ劣化研究は、この構造的問題を裏付けました。15のLLMと200,000件以上のシミュレーション会話において、シングルターンからマルチターンへの平均パフォーマンス低下率は39%でした。5
コンパクションで何が残り、何が残らなかったかをユーザーは確認できません。40分前に確立したAPIの契約をエージェントは忘れたのか。モジュール依存関係グラフは最後の要約を生き延びたのか。チャットインターフェースにはこれらの質問に答える手段がありません。メモリブラウザがあれば、エージェントが現在コンテキストに保持しているもの、コンパクションされたもの、失われたもの、セッション間でファイルシステムメモリに永続化されているものを表示できます。Ralphループのファイルシステムをメモリとして使うパターンはコンパクション損失を補いますが、オペレーターは生の状態ファイルを読まなければエージェントのワーキングメモリを検査できません。
コンテキストバジェットメーターがない
トークン消費は不可視です。コンテキストウィンドウが40%満杯なのか90%満杯なのか、ユーザーには分かりません。枯渇の最初の兆候は出力の劣化です。忘れられた指示、繰り返される提案、数分前にはマルチファイルの一貫性を維持していたエージェントがシングルファイルのトンネルビジョンに陥る。4 ユーザーが気づく頃には、品質の劣化は数ターンにわたって複合的に蓄積しています。
コンテキストバジェットメーターがあれば、リアルタイムのトークン使用量、現在のタスクの消費率に基づく枯渇予測、コンパクション閾値を表示できます。燃料計のように機能するでしょう。毎秒確認する情報ではありませんが、長時間の操作にコミットする前に必要な情報です。「このリファクタリングタスクは約80Kトークンを消費します。残りのバジェットは60Kです」——この情報がユーザーの判断を変えます。この情報を提供するチャットインターフェースは存在しません。
ツールコール監査がない
エージェントはユーザーが確認しない引数でツールを実行します。bashコマンドが実行される。ファイルが書き込まれる。APIが呼び出される。チャットインターフェースはツール名と時に出力を表示します。引数(エージェントがツールに送った実際の指示)は、読む気を失わせるフォーマットでスクロールしていきます。
この失敗モードは仮定の話ではありません。ある開発者がClaude Codeがデータベースと2.5年分のスナップショットを含む本番環境のセットアップ全体を削除したと報告しています。6 エージェントは確認プロンプトもフックのインターセプションもなく、破壊的なコマンドを実行しました。このインシデントはインターフェースの欠陥に帰着します。エージェントがこれから何をしようとしているのか、ユーザーが効率的にレビューできなかったのです。
ツールコール監査画面があれば、各ツール呼び出しにフル引数、ファイル操作のbefore/after差分、破壊的アクションのロールバック機能を付けて提示できます。エビデンスゲートは出力レイヤーでの検証問題に対処し、作業完了のマーク前にファイルパス、テスト結果、パターン名の引用をエージェントに要求します。ツールコール監査は同じ問題を実行レイヤーで、つまり被害が生じる前に対処するものです。
エージェントオペレーションのための6つのインターフェースパターン
チャットが失敗するのは、エージェントオペレーションを会話として扱うからです。以下の6つのパターンは、エージェントオペレーションをオペレーションとして扱います。
1. トレースタイムライン
各ノードで展開可能な詳細を持つ時系列イベントログです。すべてのファイル読み取り、ファイル書き込み、bashコマンド、APIコール、サブエージェント起動、コンパクションイベント、判断ポイントがタイムライン上に表示されます。イベントタイプでフィルタリングし、時間範囲をズームし、個々のイベントを展開してフル引数と出力を確認できます。
タイムラインは、現在ログファイル分析を必要とする事後デバッグの「何が起きたか」という問題を解決します。不可視エージェントの問題(オペレーターの可視性なしにリソースを消費するエージェント)は、すべてのアクションがリソース消費メトリクスを付与されたフィルタリング可能なタイムラインに表示されることで可視化されます。
2. パーミッションゲートUI
リスク階層順にソートされた保留中の承認キューです。破壊的操作(本番デプロイ、データベースマイグレーション、フォースプッシュ)は赤枠で表示され、明示的な確認を要求します。読み取り専用操作(ファイル読み取り、検索クエリ)は自動承認または一括承認されます。ゲート画面にはフルコマンド、リスク評価、エージェントがそのアクションを行う理由が表示されます。
一括承認はインタラクションモデルを変革します。一晩のセッション中に47回会話を中断する代わりに、パーミッションゲートが「自動承認閾値を超えた12の操作」を単一のレビュー画面に提示します。ユーザーは6時間にわたって12回コンテキストスイッチする代わりに、2分で12件すべてを処理できます。
3. メモリブラウザ
3パネル表示です。アクティブコンテキスト(エージェントが現在保持しているもの)、コンパクション済み要約(何がいつ要約されたか)、ファイルシステムメモリ(セッション間でディスクに永続化されているもの)。各パネルは検索可能です。コンパクションされた項目をアクティブコンテキストに復元したり、ファイルシステムメモリに古くなったフラグを立てたりできます。
ブラウザによってエージェントの知識状態が検査可能になります。エージェントが以前の決定と矛盾する出力を生成した場合、オペレーターはその決定がコンパクションを生き延びたかどうかを確認できます。エージェントメモリ劣化の問題はブラウザで消えるわけではありません。ブラウザは劣化を可視化し、診断可能にし、部分的に回復可能にするのです。
4. コンテキストバジェットメーター
現在の利用率、ローリング消費率に基づく枯渇予測、コンパクション閾値を表示するライブトークンカウンターです。メーターには内訳が含まれます。システムプロンプトに何トークン、会話履歴に何トークン、ツール出力に何トークン、ファイル内容に何トークン。この内訳がバジェットの行き先を明らかにします。多くの場合、ツール出力がウィンドウの60〜70%を消費しています。
メーターは行動を変えます。私のコンテキストウィンドウ管理プラクティス(プロアクティブなコンパクション、サブエージェントへの委任、ファイルシステムベースのメモリ)は、50セッションにわたるトークン消費の計測から生まれました。ライブメーターは同じ計測をすべてのユーザーにリアルタイムで提供し、コンテキスト管理をエキスパートのプラクティスから可視化されたリソース制約へと転換します。
5. ツールコールレビュー
各ツール呼び出しの検査画面です。ファイル操作にはbefore/after差分が表示されます。bashコマンドにはフルコマンド、作業ディレクトリ、終了コードが表示されます。APIコールにはリクエストとレスポンスのペイロードが表示されます。各ツールコールには、操作を元に戻すロールバックボタン(可逆操作の場合)または手動レビューのフラグ(不可逆操作の場合)が付きます。
レビュー画面は二重の役割を果たします。インタラクティブセッション中のリアルタイム監視と、自律実行中の事後監査です。ダークファクトリー検証レイヤーは、自律システムが人間不在で検証をどう処理するかを探求しています。ツールコールレビューはその人間在場の補完であり、盲目的な信頼ではなく情報に基づく信頼を可能にする検査画面を提供します。
6. スーパービジョンキュー
並行セッション全体の優先アラートを表示するマルチエージェントダッシュボードです。複数のエージェント(リファクタリングエージェント、テスト作成エージェント、ドキュメントエージェント)を実行している場合、キューはステータスを集約し、失敗をハイライトし、人間がループ内で行う判断を単一の画面にルーティングします。
スーパービジョンキューが重要なのは、エージェントの利用が水平にスケールするからです。1人の開発者が1つのエージェントを実行するのは会話です。1人の開発者が5つのタスクで5つのエージェントを実行するのはオペレーションです。オペレーションのインターフェースはダッシュボードであり、5つのチャットウィンドウではありません。キューは緊急度で優先順位付けします。失敗中の本番デプロイは、ドキュメントのフォーマット修正の質問よりも上位に表示されます。
現在の状況
完全なオペレーションダッシュボードを構築したプロダクトはまだありません。しかし、いくつかのプロダクトが部分的な実装を行っています。
Claude Codeは最も強力なプログラマティックレイヤーを提供しています。フックは15種類のイベントを許可/拒否/変更の判断でインターセプトします。/costコマンドはセッションのトークン使用量を表示します。CLAUDE.mdコンテキストシステムはファイルシステムメモリを提供します。しかし、そのサーフェスはターミナルです。ビジュアルタイムラインなし。パーミッションキューなし。メモリブラウザなし。インフラは存在していますが、インターフェースが存在しません。7
Cursorはインライン差分を構築しました。ファイル操作に対する原始的なツールコールレビューです。差分画面はbefore/after状態を表示し、チャンク単位での受諾/拒否をサポートします。パターンは正しいですが狭い。差分はファイル書き込みをカバーしますが、bashコマンド、APIコール、サブエージェントの連携はカバーしていません。
DevinはオペレーションUIに最も近づいています。画面をブラウザ、ターミナル、エディタ、チャットの4つにパネル分割し、エージェントの振る舞いの異なる側面を同時に可視化します。パネルレイアウトは、会話だけでは不十分であることを認めています。しかし、パネルはプレゼンテーションであり、制御画面ではありません。ユーザーはエージェントの作業を観察します。承認をキューに入れたり、メモリ状態を検査したり、ツール引数を監査したりすることはパネル経由ではできません。8
Claude Routines(2026年4月出荷)はマルチステップワークフローをバックグラウンドで実行し、各実行はレビュー可能なClaude Codeセッションを作成します。レビュー画面はトレースタイムラインです。エージェントが何をしたかを事後に確認できます。このパターンは核心的な主張を検証しています。バックグラウンド実行には、元の会話とは異なるレビュー画面が必要なのです。9
OpenAI Codexはクラウド上でヘッドレスに実行し、差分を返します。分離モデル(タスクごとのサンドボックス環境)は一部のパーミッション問題を排除しますが、別の問題を導入します。ユーザーはサンドボックスの安全性と引き換えに、すべてのリアルタイム監視を放棄します。専用のオペレーションタイムラインも実行中の制御画面もありません。このトレードオフはデザインの緊張を浮き彫りにします。完全な自律か完全な監視か、その中間がないのです。10
これらの部分的な解決策と完全なエージェントオペレーションインターフェースとの間のギャップが、AIツーリングにおける次の競争フロンティアを定義しています。
エージェントインターフェースはデザインの問題である
上記のインターフェースパターンはエンジニアリング仕様です。しかし、それらの構築にはエンジニアリング仕様だけでは提供できないデザインの判断が必要です。
パーミッションゲートはリスクをどう伝達するのか。色だけでは不十分です。赤は西洋の文脈では「危険」を意味しますが、中国の文脈では「繁栄」を意味します。アイコンの選択、空間的配置、アニメーションのタイミング、コピーのトーン——これらすべてがユーザーのリスク評価に寄与します。技術的に正しい情報を表示しても、それを適切に伝達できないパーミッションゲートは、ユーザーに読まずに「承認」をクリックする習慣を植え付けます。ゲートが形骸化するのです。
コンテキストバジェットメーターは、不安を煽ることなく緊急性をどう伝達するのか。80%利用率で赤くなるメーターは早すぎるコンパクションを引き起こすかもしれません。95%まで緑のままのメーターは突然の枯渇を引き起こすかもしれません。閾値の曲線、色の遷移、通知のタイミングは、運用上の結果を伴うテイストの判断です。
トレースタイムラインは、ユーザーを圧倒せずに情報密度をどう処理するのか。12時間の自律セッションは数千のイベントを生成します。すべてのイベントを表示するとノイズになります。「重要な」イベントだけにフィルタリングするには、インターフェースが重要性を定義する必要があり、その判断はユーザー、タスク、失敗モードによって異なります。
これらは、Dieter Ramsが家電で答えた問いであり、Kenya Haraが情報デザインで答えた問いと同じものです。問いは新しくありません。領域が新しいのです。テイストはテクニカルシステムです。制約、評価基準、パターン認識、一貫性チェック——これらがエンジニアリングインフラに分解されます。エージェントインターフェースデザインには、オペレーショナルUXに特化したテイストインフラが必要です。時間的プレッシャー下での迅速な意思決定を支える視覚的画面を通じて、リスク、信頼度、不確実性、リソース状態を伝達する能力です。
エージェントインターフェースを機能リストではなくデザインの問題として扱う企業が、オペレーターが本番ワークロードを任せるインターフェースを構築するでしょう。エンジニアリングの問題としてのみ扱う企業は、技術的には完全だが運用上は使い物にならないダッシュボードを構築することになります。
次のモートはどこにあるか
モデルはモートではありません。フロンティアモデルは四半期ごとに能力ベンチマークで収斂しています。ファインチューニングとRLHFは意味のある差別化を生みますが、一時的なものです。モデルレイヤーは競争優位性のリターンが逓減するコモディティ競争です。11
コンテキストレイヤーもモートではありません。コンテキストウィンドウは128Kから200K、そして1Mトークンへと拡大しています。すべてのプロバイダーが数ヶ月以内に追随します。コンテキストの拡大は能力を向上させますが、プロダクトの差別化にはなりません。
制御画面がモートです。自律的なエージェントオペレーションを可視化し、監査可能にし、ガバナンス可能にするインターフェース——この画面が、どのプロダクトにエンタープライズが本番ワークロードを委ねるかを決定します。エンタープライズの採用には、チャットインターフェースでは答えられない質問への回答が必要です。エージェントは何をしたのか。なぜそうしたのか。どのパーミッションを行使したのか。どのリソースを消費したのか。エージェントのアクションをロールバックできるか。監査人にエージェントの行動を証明できるか。
これらはプロンプティングの質問ではありません。オペレーションの質問です。これらに答えるプロダクトが、重要な市場を制するのです。
私の95のフックは、ターミナルから構築し、シェルスクリプトで実施し、設定ファイルで管理する、これらの質問に対するプログラマティックな回答です。フックは機能します。しかしフックは現在の最先端も表しています。エキスパートでないユーザーが再現することのない、エキスパートレベルのインフラです。エビデンスゲートはエージェント出力を検証します。不可視エージェントのオブザーバビリティレイヤーはエージェントの振る舞いを監視します。コンテキストウィンドウ管理プラクティスはセッション品質を維持します。各システムが実際の運用ニーズに対処しています。そして各システムがインターフェースではなくコードとして存在しています。
次のステップは明らかです。コードを制御画面に変える。フックをパーミッションゲートに変える。テレメトリをトレースタイムラインに変える。トークン計測をバジェットメーターに変える。ファイルシステムメモリをブラウズ可能な知識状態に変える。エビデンスゲートをツールコールレビュー画面に変える。
インフラはすでに存在しています。インターフェースが存在しないのです。インターフェースの構築は、デザインの問題であり、エンジニアリングの問題であり、テイストの問題です。この3つすべてを解決するチームが、AI エンジニアリングの次の時代を定義するプロダクトを出荷するでしょう。
FAQ
チャットのフォーマットを改善すれば十分ではないですか?
フォーマットの改善は症状への対処です。問題は構造的なものです。チャットは逐次的で追記のみの媒体です。エージェントオペレーションにはランダムアクセス検査(任意のイベントへのジャンプ)、並行ビュー(ツールコールと同時にメモリ状態を確認)、バッチインタラクション(5つの操作を一度に承認)が必要です。チャット内でのフォーマット改善(折りたたみセクション、シンタックスハイライト、インライン差分)はわずかに助けになりますが、スクロール式トランスクリプト内でランダムアクセス、並行ビュー、バッチインタラクションを提供することはできません。
パーミッションゲートは人間の判断を代替できますか?
パーミッションゲートは、迅速かつ正確な評価に最適化された形式で判断を提示することにより、人間の判断を補強します。ゲートは決定しません。ゲートはコンテキスト付きで判断を表面化します。フルコマンド、リスク階層、エージェントの推論、潜在的な影響。人間がより速く正確に判断できるのは、インターフェースが会話スクロールから関連情報を抽出する認知的負荷を軽減するからです。
これらのパターンはコーディング以外のエージェントにも適用できますか?
すべてのパターンが汎用的です。カスタマーサービスエージェントにはトレースタイムライン(エージェントは顧客に何を言ったか)、パーミッションゲート(500ドル以上の返金を発行できるか)、ツールコール監査(どのデータベースクエリを実行したか)が必要です。リサーチエージェントにはメモリブラウザ(どのソースを参照したか)とコンテキストバジェットメーター(検索容量はどれだけ残っているか)が必要です。パターンがドメインに依存しないのは、運用上の課題(可視性、パーミッション、メモリ、リソース、監査、スーパービジョン)が自律ソフトウェアに普遍的だからです。
ソース
-
Blake Crosley, “The Ralph Loop: How I Run Autonomous AI Agents Overnight,” blakecrosley.com, February 2026. Documents the overnight loop architecture, spawn budgets, and filesystem-as-memory pattern. ↩
-
Blake Crosley, “Claude Code Hooks: Why Each of My 95 Hooks Exists,” blakecrosley.com, February 2026. The hook system intercepts 15 event types across session start, tool use, prompt submission, and response completion. ↩
-
Blake Crosley, “AI Agent Observability: Monitoring What You Can’t See,” blakecrosley.com, March 2026. Documents 84 hooks firing per action across 60 sessions and the three-layer observability stack. ↩
-
Blake Crosley, “Context Window Management: 50 Sessions of Data,” blakecrosley.com, February 2026. Measured quality degradation at ~60% context utilization across 50 Claude Code sessions. ↩↩
-
Zhiheng Xi et al., “The Rise and Potential of Large Language Model Based Agents: A Survey,” arXiv preprint arXiv:2309.07864, 2023; Salesforce Research and Microsoft Research, “Multi-Turn Benchmark,” May 2025. Found 39% average performance drop from single-turn to multi-turn across 15 LLMs. ↩
-
Hacker News discussions, March 2026. Developer reported Claude Code executing
terraform applyagainst production (142 points, 158 comments). Separate developer reported Claude Code deleting production setup including 2.5 years of database snapshots. Both documented in “AI Agent Observability,” blakecrosley.com. ↩ -
Anthropic, “Claude Code documentation,” 2025-2026. Hooks API,
/costcommand, andCLAUDE.mdcontext system. ↩ -
Cognition, “Devin documentation,” 2024-2026. Multi-panel interface with browser, terminal, editor, and chat surfaces. ↩
-
Anthropic, “Claude Routines,” April 2026. Background execution of multi-step workflows with reviewable Claude Code sessions. ↩
-
OpenAI, “Codex,” May 2025. Cloud-based headless agent execution with sandboxed environments and diff-based output. ↩
-
Anthropic, Google DeepMind, and OpenAI benchmark publications, 2024-2026. Frontier models are converging on standard benchmarks across successive releases, with diminishing differentiation on established evaluation suites. ↩