聊天是AI智能体的错误界面
聊天是一个好的输入原语,但对智能体而言是糟糕的运行环境。 当软件开始持续运行——维护状态、调用工具、做出决策、处理故障与恢复——界面就必须从对话转向运维。以下六种界面模式定义了智能体控制面板的真正需求。
大多数AI智能体以聊天窗口的形式交付。Claude Code是终端对话,Cursor是编辑器对话,Codex在云端运行对话,Devin将对话包裹在浏览器、终端和编辑器之外。对话框架占据了绝对主导地位,以至于”与AI对话”已经等同于”使用AI”。当交互模型还是提示-响应时,这个隐喻合情合理:你提问,它回答,你评估。一轮。两轮。也许十轮。
但当智能体自主运行时,这个隐喻就彻底失效了。
我的Ralph循环在夜间运行Claude Code。每次迭代使用全新上下文,会话间通过文件系统保持记忆,停止钩子防止过早终止。一次通宵运行产生8到15次迭代,每次都有完整的200K token上下文窗口。该系统在多次无人值守会话中交付了3,455行生产级Python代码。1 若要通过滚动聊天记录来监督这些会话,需要阅读数千行交织在一起的工具调用、文件差异和推理轨迹。没有人会这样做,也没有人能做到。聊天界面在自主运行的重压下彻底崩溃。
从业者正逐渐认识到聊天隐喻是错误的。OpenAI的Codex在云端无头运行,返回已完成的工作。Anthropic的Claude Routines执行多步骤工作流,并提供可审查的会话。Devin将屏幕分为浏览器、终端、编辑器和聊天四个面板。每个产品都在从纯对话向更具运维性质的方向演进,但没有一个达到了完整的解决方案。”带文件差异的聊天”与”智能体运维仪表盘”之间的鸿沟,仍是AI工具领域最大的未解决UX问题。
聊天在五个方面令智能体失败
缺乏轨迹时间线
一次90分钟的智能体会话会产生数百个事件:文件读取、文件写入、bash命令、搜索查询、子智能体生成、压缩事件和推理步骤。聊天将这些事件呈现为线性对话滚动。这种格式使得回答”第30分钟到第45分钟之间发生了什么?”几乎不可能,除非阅读中间的所有内容。
我的钩子系统在每个工具调用中拦截15种事件类型,生成结构化遥测数据,而聊天界面完全没有展示这些数据。2 遥测数据存在,但可视化不存在。当我调试一次失败的通宵会话时,我用grep搜索日志文件,而不是滚动聊天记录。
轨迹时间线应将事件呈现为可过滤、可缩放的序列。只显示文件写入操作。只显示修改了文件系统的bash命令。显示智能体选择路径A而非路径B的决策点。飞行数据记录仪不会将驾驶舱事件呈现为对话记录,智能体界面也不应如此。
缺乏权限审批界面
Claude Code的权限模型通过中断对话来请求批准。”允许此bash命令?”内嵌在智能体的推理过程中,用户必须从阅读分析切换到评估风险。这种中断模式适用于交互式会话,但对自主运行完全失效——智能体需要批量审批和分级权限。
我的95个钩子充当程序化权限层。白名单命令静默通过,被阻止的模式停止执行。钩子解决了自动化问题,但它是用代码而非界面来解决的。3 权限门控UI应将待审批项以队列形式呈现,按风险等级排序,支持一键批准或拒绝。高风险操作(强制推送、生产环境部署、破坏性命令)应与低风险操作(文件读取、搜索查询)有截然不同的展示方式。界面应在用户评估内容之前就先传达风险等级。
缺乏记忆浏览器
上下文压缩会抹去智能体已知的信息。200K token窗口被填满后,系统对早期轮次进行摘要,信息随之消失。我在50个会话中的测量显示,输出质量在上下文利用率约60%时就开始下降,远早于硬限制触发压缩。4 来自Microsoft Research和Salesforce的记忆退化研究证实了这个结构性问题:在15个LLM和超过200,000次模拟对话中,从单轮到多轮交互平均性能下降39%。5
用户完全无法了解哪些信息在压缩中存活、哪些没有。智能体是否忘记了40分钟前建立的API契约?模块依赖图是否在上次摘要中保留下来?聊天界面无法回答这些问题。记忆浏览器应展示智能体当前在上下文中持有的内容、被压缩的内容、丢失的内容以及在文件系统记忆中持久化的内容。Ralph循环的文件系统即记忆模式补偿了压缩损失,但操作者仍然无法在不阅读原始状态文件的情况下检查智能体的工作记忆。
缺乏上下文预算仪表
Token消耗是不可见的。用户不知道上下文窗口已满40%还是90%。耗尽的第一个信号是输出质量下降:遗忘指令、重复建议、从之前保持多文件协调的状态退化为单文件隧道视野。4 当用户注意到时,质量损害已经在多轮对话中累积叠加。
上下文预算仪表应显示实时token使用量、基于当前任务消耗速率预测的耗尽时间,以及压缩阈值。这个仪表的功能类似燃油表:不是每秒都需要查看的信息,但在执行长时间操作前必须了解的信息。”这项重构任务预计消耗约80K token;你剩余预算为60K”——这会改变用户的决策考量。目前没有任何聊天界面提供此信息。
缺乏工具调用审计
智能体执行工具时使用的参数,用户从未检查过。一条bash命令运行了,一个文件被写入了,一个API被调用了。聊天界面显示工具名称,有时显示输出。但参数(智能体发送给工具的实际指令)以一种令人不愿阅读的格式一闪而过。
这种失败模式并非假设。一位开发者报告Claude Code删除了整个生产环境配置,包括数据库和2.5年的快照。6 智能体在没有确认提示、没有钩子拦截的情况下执行了破坏性命令。这一事件的根源在于界面缺陷:用户无法高效审查智能体即将执行的操作。
工具调用审计界面应展示每次工具调用的完整参数、文件操作的前后差异,以及破坏性操作的回滚能力。证据门控在输出层解决了验证问题,要求智能体在标记工作完成前引用文件路径、测试结果和模式名称。工具调用审计在执行层解决同样的问题——在损害发生之前。
智能体运维的六种界面模式
聊天之所以失败,是因为它将智能体运维当作对话来处理。以下六种模式将智能体运维当作运维来处理。
1. 轨迹时间线
按时间排列的事件日志,每个节点可展开查看详情。每次文件读取、文件写入、bash命令、API调用、子智能体生成、压缩事件和决策点都显示在时间线上。用户可按事件类型过滤、缩放时间范围,并展开单个事件查看完整参数和输出。
时间线解决了”发生了什么?”的问题——目前的事后调试需要分析日志文件才能回答。当每个操作都出现在一条可过滤的时间线上、并附带资源消耗指标时,不可见智能体问题(智能体在无操作者可见性的情况下消耗资源)就变得可见了。
2. 权限门控UI
按风险等级排序的待审批队列。破坏性操作(生产环境部署、数据库迁移、强制推送)以红色边框显示并需要明确确认。只读操作(文件读取、搜索查询)自动批准或批量批准。门控界面显示完整命令、风险评估和智能体说明的操作原因。
批量审批从根本上改变了交互模型。与其在通宵会话中中断对话47次,权限门控将”以下12项操作超出了你的自动批准阈值”呈现在一个统一的审批界面中。用户在两分钟内处理完全部12项,而不是在六小时内切换上下文12次。
3. 记忆浏览器
三面板显示:活跃上下文(智能体当前持有的内容)、压缩摘要(何时进行了哪些摘要)和文件系统记忆(会话间持久化到磁盘的内容)。每个面板都可搜索。用户可以将被压缩的条目提升回活跃上下文,或将文件系统记忆标记为过时。
浏览器使智能体的知识状态可检查。当智能体的输出与早期决策矛盾时,操作者可以检查早期决策是否在压缩中保留下来。智能体记忆退化问题不会因为浏览器而消失,但浏览器使退化变得可见、可诊断,并且部分可恢复。
4. 上下文预算仪表
实时token计数器,显示当前利用率、基于滚动消耗速率的预测耗尽时间,以及压缩阈值。仪表包含分项明细:多少token用于系统提示、多少用于对话历史、多少用于工具输出、多少用于文件内容。分项明细揭示了预算的去向——通常工具输出消耗了窗口的60-70%。
仪表会改变行为模式。我的上下文窗口管理实践(主动压缩、子智能体委派、基于文件系统的记忆)源于对50个会话的token消耗测量。实时仪表将同样的测量数据提供给每位用户,将上下文管理从专家实践转变为可见的资源约束。
5. 工具调用审查
每次工具调用的检查界面。文件操作显示前后差异。Bash命令显示完整命令、工作目录和退出码。API调用显示请求和响应载荷。每次工具调用都包含回滚按钮,可撤销操作(对于可逆操作)或标记为需要人工审查(对于不可逆操作)。
审查界面一举两得:交互式会话中的实时监督,以及自主运行后的事后审计。暗工厂验证层探讨了自主系统在无人在场时如何处理验证问题。工具调用审查是有人在场时的补充,提供了使知情信任(而非盲目信任)成为可能的检查界面。
6. 监督队列
多智能体仪表盘,在并发会话中显示优先级警报。当同时运行多个智能体(重构智能体、测试编写智能体、文档智能体)时,队列汇总它们的状态、突出显示故障,并将需要人工介入的决策路由到统一界面。
监督队列之所以重要,是因为智能体的使用是水平扩展的。一个开发者运行一个智能体是对话;一个开发者在五个任务上运行五个智能体就是运维。运维的界面是仪表盘,而不是五个聊天窗口。队列按紧急程度排序:生产环境部署失败的优先级高于文档格式问题。
当前现状
没有产品构建了完整的运维仪表盘,但已有一些产品构建了部分组件。
Claude Code提供了最强的程序化层。钩子拦截15种事件类型,支持允许/拒绝/修改决策。/cost命令显示会话token使用情况。CLAUDE.md上下文系统提供文件系统记忆。但界面只是终端——没有可视化时间线、没有权限队列、没有记忆浏览器。基础设施存在,界面却不存在。7
Cursor构建了内联差异,一种针对文件操作的基础工具调用审查。差异界面显示前后状态,支持按代码块接受或拒绝。模式正确但范围狭窄:差异覆盖了文件写入,但未涵盖bash命令、API调用或子智能体协调。
Devin最接近运维UI。产品将屏幕分为浏览器、终端、编辑器和聊天四个面板——四个界面同时展示智能体行为的不同方面。面板布局承认了单纯对话的不足。但这些面板是展示性的,而非控制性的。用户观看智能体工作,但无法通过这些面板排队审批、检查记忆状态或审计工具参数。8
Claude Routines(2026年4月发布)在后台执行多步骤工作流,每次运行生成可审查的Claude Code会话。审查界面是一个轨迹时间线:用户可以在事后审查智能体的行为。这一模式验证了核心论点:后台执行需要一个不同于原始对话的审查界面。9
OpenAI Codex在云端无头运行并返回差异。隔离模型(每个任务一个沙箱环境)消除了部分权限顾虑,但引入了新问题:用户放弃了所有实时监督,换取沙箱安全性。没有专门的运维时间线或运行中控制界面。这种取舍揭示了设计张力:完全自主或完全监督,中间缺乏过渡方案。10
这些部分解决方案与完整智能体运维界面之间的差距,定义了AI工具领域的下一个竞争前沿。
智能体界面是一个设计问题
上述界面模式是工程规格。但构建它们需要工程规格本身无法提供的设计判断力。
权限门控如何传达风险?仅靠颜色是不够的:红色在西方文化中意味着”危险”,在中国文化中却象征”吉祥”。图标选择、空间布局、动画时机和文案语气都影响着用户的风险评估。一个技术上展示了正确信息但传达方式拙劣的权限门控,会训练用户不阅读就点击”批准”,门控沦为形式。
上下文预算仪表如何传达紧迫感而不引发焦虑?在80%利用率时变红的仪表可能导致过早压缩,保持绿色直到95%的仪表可能造成突然耗尽。阈值曲线、颜色渐变和通知时机都是具有运维后果的品味决策。
轨迹时间线如何在不淹没用户的情况下处理信息密度?12小时的自主会话产生数千个事件。显示所有事件产生噪音。过滤出”重要”事件要求界面定义何为重要——而这个判断因用户、任务和故障模式而异。
这些问题与Dieter Rams为消费电子产品和原研哉为信息设计所回答的问题本质相同。问题并不新鲜,新的是领域。品味是一个技术系统:约束条件、评估标准、模式识别和一致性检查,可分解为工程基础设施。智能体界面设计需要专为运维UX构建的品味基础设施——在时间压力下通过可视化界面传达风险、置信度、不确定性和资源状态,以支持快速决策的能力。
将智能体界面视为设计问题而非功能清单的公司,将构建出操作者信赖用于生产工作负载的界面。仅将其视为工程问题的公司,将构建出技术完备但在运维中无法使用的仪表盘。
下一条护城河
模型不是护城河。前沿模型每个季度在能力基准上趋同。微调和RLHF产生有意义但短暂的差异化。模型层是一场收益递减的商品化竞赛。11
上下文层也不是护城河。上下文窗口从128K增长到200K再到1M token,每个提供商在数月内即可跟进。更长的上下文提升了能力,但无法差异化产品。
控制面板才是护城河。使自主智能体运维可见、可审计、可治理的界面——这个界面决定了企业信任哪个产品来承载生产工作负载。企业采用要求回答聊天界面无法回答的问题:智能体做了什么?为什么这样做?行使了哪些权限?消耗了哪些资源?能否回滚智能体的操作?能否向审计人员证明智能体做了什么?
这些不是提示问题,而是运维问题。能回答这些问题的产品,将赢得真正重要的市场。
我的95个钩子是对这些问题的程序化回答——从终端构建、通过shell脚本执行、通过配置文件维护。钩子有效,但也代表了当前最先进的水平:非专家用户无法复制的专家级基础设施。证据门控验证智能体输出。不可见智能体可观测性层监控智能体行为。上下文窗口管理实践维护会话质量。每个系统都解决了真实的运维需求,但每个系统都以代码而非界面的形式存在。
下一步显而易见。将代码转化为控制面板。将钩子转化为权限门控。将遥测数据转化为轨迹时间线。将token测量转化为预算仪表。将文件系统记忆转化为可浏览的知识状态。将证据门控转化为工具调用审查界面。
基础设施已经存在,界面尚不存在。构建界面是一个设计问题、工程问题,也是一个品味问题。三者兼顾的团队,将交付定义AI工程下一个时代的产品。
常见问题
为什么不直接改进聊天的格式?
改进格式只是治标。问题是结构性的:聊天是顺序追加式的媒介。智能体运维需要随机访问检查(跳转到任意事件)、并发视图(同时查看记忆状态和工具调用)以及批量交互(一次批准五项操作)。在聊天中改进格式(可折叠区块、语法高亮、内联差异)有些许帮助,但无法在滚动记录中实现随机访问、并发视图或批量交互。
权限门控能否取代人类判断?
权限门控增强判断力,而非取代判断力——它以优化快速、准确评估的格式呈现决策。门控不做决定,而是将决策连同上下文一起呈现:完整命令、风险等级、智能体的推理过程和潜在影响。人类做出更快、更准确的决策,因为界面降低了从对话滚动中提取相关信息的认知负荷。
这些模式如何应用于非编程智能体?
每种模式都可推广。客户服务智能体需要轨迹时间线(智能体对客户说了什么?)、权限门控(智能体能否发起超过500美元的退款?)和工具调用审计(智能体执行了哪些数据库查询?)。研究智能体需要记忆浏览器(智能体查阅了哪些资料来源?)和上下文预算仪表(还有多少检索容量?)。这些模式与领域无关,因为运维挑战(可见性、权限、记忆、资源、审计、监督)对所有自主软件都是普遍的。
参考文献
-
Blake Crosley, “The Ralph Loop: How I Run Autonomous AI Agents Overnight,” blakecrosley.com, February 2026. Documents the overnight loop architecture, spawn budgets, and filesystem-as-memory pattern. ↩
-
Blake Crosley, “Claude Code Hooks: Why Each of My 95 Hooks Exists,” blakecrosley.com, February 2026. The hook system intercepts 15 event types across session start, tool use, prompt submission, and response completion. ↩
-
Blake Crosley, “AI Agent Observability: Monitoring What You Can’t See,” blakecrosley.com, March 2026. Documents 84 hooks firing per action across 60 sessions and the three-layer observability stack. ↩
-
Blake Crosley, “Context Window Management: 50 Sessions of Data,” blakecrosley.com, February 2026. Measured quality degradation at ~60% context utilization across 50 Claude Code sessions. ↩↩
-
Zhiheng Xi et al., “The Rise and Potential of Large Language Model Based Agents: A Survey,” arXiv preprint arXiv:2309.07864, 2023; Salesforce Research and Microsoft Research, “Multi-Turn Benchmark,” May 2025. Found 39% average performance drop from single-turn to multi-turn across 15 LLMs. ↩
-
Hacker News discussions, March 2026. Developer reported Claude Code executing
terraform applyagainst production (142 points, 158 comments). Separate developer reported Claude Code deleting production setup including 2.5 years of database snapshots. Both documented in “AI Agent Observability,” blakecrosley.com. ↩ -
Anthropic, “Claude Code documentation,” 2025-2026. Hooks API,
/costcommand, andCLAUDE.mdcontext system. ↩ -
Cognition, “Devin documentation,” 2024-2026. Multi-panel interface with browser, terminal, editor, and chat surfaces. ↩
-
Anthropic, “Claude Routines,” April 2026. Background execution of multi-step workflows with reviewable Claude Code sessions. ↩
-
OpenAI, “Codex,” May 2025. Cloud-based headless agent execution with sandboxed environments and diff-based output. ↩
-
Anthropic, Google DeepMind, and OpenAI benchmark publications, 2024-2026. Frontier models are converging on standard benchmarks across successive releases, with diminishing differentiation on established evaluation suites. ↩