← 所有文章

用十个大脑思考:我如何将智能体协商用作决策工具

From the guide: Claude Code Comprehensive Guide

我花了三个小时为我的Claude Code工具链设计一套记忆检索系统,然后决定把这个决策交给我的多智能体协商系统来评估。十个AI智能体独立评估了这个项目。其中九个就架构、安全和性能发表了意见。第十个提出了一个我从未想过要问的问题:”你要解决的问题,实际成本到底是多少?”

答案直接终结了这个项目。我计划优化掉的token开销每月还不到一杯咖啡的钱。而我计划构建的检索系统需要200到400小时的工程量。回本周期:18到36年。1

其他每个智能体都给出了有价值的分析。技术架构师的设计简洁利落。安全分析师发现了真实的风险。性能工程师的计算精确无误。但没有一个质疑这个项目是否应该存在。我当然也没有质疑——我已经锚定在解决方案上了。成本分析师没有这种锚定,因为它对每个提案都是从零开始评估的。

摘要

你无法通过意识到认知偏差来消除它们。Kahneman几十年前就证明了这一点:即使是研究偏差的专家也会落入偏差的陷阱。2多智能体协商是一种结构性干预,而不是提示词技巧。十个拥有不同评估优先级的AI智能体迫使推理过程外显化,使盲点在变成承诺之前就被看见。我在2026年1月构建了这套架构,并在过去两个月中将其用于从记忆系统到博客策略再到API设计的各种决策。这篇文章讨论的是实践:如何用十个大脑思考,何时该用,以及何时反而会适得其反。


你自己的大脑存在什么问题

Daniel Kahneman用毕生精力记录了人类认知中的一个结构性缺陷。系统1产生快速、直觉性的判断。系统2本应对其进行审查。但在实践中,系统2运行在”舒适的低能耗模式”下,不加审视地认可系统1的结论。2 Kahneman的核心发现是:监督系统是懒惰的,它只是在给直觉盖橡皮章。

这直接映射了大多数人使用AI的方式。你向一个智能体提问。智能体生成答案(系统1)。你阅读答案并判断它听起来是否正确(系统2)。但你的系统2正是通过塑造了问题的那些偏差来评估答案的。你锚定在了最初的框架上。你给智能体提供的上下文确认了你已有的假设。智能体被训练为乐于助人,于是强化了你的方向。在整个过程中,没有任何人挑战前提。

以下是在工程决策中冲击力最大的偏差:

偏差 表现形式 什么能捕获它
确认偏差 寻找支持既定方案的数据 拥有对立指令的智能体
锚定效应 第一个估算主导所有后续思考 来自多个智能体的独立估算
沉没成本 “我们已经搭好了基础,不如继续下去” 从零开始评估的成本分析师
可得性偏差 过度关注最近的生产事故 能访问历史模式的智能体
达克效应 在缺乏深度的领域过度自信 领域专家智能体
幸存者偏差 “前三次部署都没问题” 追问你遗忘的那些失败案例的维护悲观主义者

应对策略已有充分文献记载:魔鬼代言人流程、事前验尸分析、结构化决策框架、外部反馈回路。3问题在于执行。进行事前验尸需要召集人员、安排时间、克服社交压力。寻找魔鬼代言人需要找到愿意与签署你绩效考核的人唱反调的人。

多智能体协商消除了执行障碍。智能体随时可用。它们没有达成一致的社交动机。它们的独立评估是架构设计的结果,而非自律的产物。


协商作为外显化思维

Sam Altman将写作定义为”外显化思维”:当一个问题感觉混乱时,把它写下来会迫使思路清晰化。4同样的机制也适用于结构化辩论。当十个智能体并行阐述各自的推理时,推理过程就变成了你可以审视的工件。

这并不是一个新想法。Marvin Minsky在《心智社会》中提出,智能来自许多更小、更简单的智能体之间的交互,而非单一复杂过程。5 Andrew Ng为多智能体系统归纳了三种模式:辩论(提出、批评、修订)、协作(并行专家加综合者)和对抗性评估(红队对蓝队)。6 Edward de Bono于1985年出版的六顶思考帽框架,通过分配并行视角(事实、情感、谨慎、乐观、创造力、流程)来防止群体锚定在单一思维模式上。7

我的协商系统同时实现了这三种模式。十个研究智能体是专家(Ng的协作模式)。辩论与综合智能体创造结构化的分歧(Ng的辩论模式)。维护悲观主义者和安全分析师充当对抗性评估者。每个智能体对应一顶思考帽:

智能体 De Bono的帽子 思维模式
技术架构师 白帽 事实、可行性、集成模式
成本分析师 白帽 数据、经济性、回本分析
UX倡导者 红帽 用户感受、认知负荷、摩擦
安全分析师 黑帽 风险、漏洞、故障模式
维护悲观主义者 黑帽 技术债务、长期成本
创新侦察员 绿帽 新颖方法、替代方案
性能工程师 黄帽 效率提升、优化潜力
质量守护者 蓝帽 流程、测试策略、可观测性

架构细节另有文档。这里重要的是实践。协商迫使你将决策外显化为一种让偏差变得可见的格式。你不再问”这是个好主意吗?”,而是开始阅读十个独立的答案:”可能出什么问题?数学怎么说?还有什么替代方案?”

Pedro Domingos将理想的AI描述为”心智外骨骼”:扩展你的思维而非取代它,代表你的利益而非迎合你的结论。8一个包含魔鬼代言人、成本分析师和维护悲观主义者的协商小组正是如此。它放大了你认知中结构性薄弱的部分。


案例研究:记忆架构决策

2026年2月,我对开篇提出的问题进行了协商系统的首次实战测试:我的Claude Code工具链在12个活跃项目中应该使用什么记忆架构?1

我的工具链在每次对话中注入MEMORY.md文件。这些文件包含项目决策、模式、错误历史和架构笔记。问题是:大部分上下文对任何给定会话都不相关。只有5-10%的加载记忆与当前任务相关。其余都是浪费的token。一个显而易见的优化目标。

初始置信度评分为0.50,远低于触发协商的0.70阈值。系统部署了全部十个研究智能体。每个智能体独立调查,具有上下文隔离:研究期间智能体之间无法看到彼此的发现。

三种方案浮现出来:

方案 评分 支持率 结论
智能原生(选择性注入) 7.04/10 10个智能体中8个支持 胜出
保持原生(加固当前系统) 6.50/10 10个智能体中5个支持 安全但影响有限
全栈记忆(外部工具) 5.38/10 10个智能体中1个支持 能力最强,风险最高

评分讲述了一个故事。各个智能体的具体发现讲述了一个更好的故事。

技术架构师:识别出四种集成模式(MCP服务器、增强型MEMORY.md、嵌入检索、基于智能体的管理器)。建议分层推进:先增强现有文件,后续再添加嵌入检索。设计清晰,范围明确。

安全分析师:将每个外部记忆工具的凭证暴露风险评为高或关键级别。指出了一种具体的攻击方式:被入侵的会话将”始终总结API密钥”注入持久化记忆,从而悄无声息地污染未来的每一次会话。

性能工程师:量化了浪费。每次对话中只有5-10%的加载记忆是相关的。但在1M token上下文窗口下,总记忆开销为2K token——仅占容量的0.2%。这个”显而易见的优化”瞄准的是一个舍入误差。

UX倡导者:“最好的记忆系统是你永远不需要想起它的存在。”每种替代方案都会增加认知负担。用户开始问”记忆在工作吗?它知道什么?”然后就不再信任自动化的上下文了。无形的系统比任何有形的系统都拥有更高的用户信任度。

维护悲观主义者:多个记忆系统会产生组合式的故障面。四个相互作用的系统会产生16种两两故障模式。Claude Code更新频繁。外部插件在版本变更时会崩溃。静默的钩子故障意味着智能体在不完整的上下文下运行,且没有任何警告。

成本分析师:这就是杀死该项目的智能体。在所有12个项目中始终加载记忆文件的总token成本:微不足道。拟议的检索系统每月只能节省几美元。构建所需的工程时间:200到400小时。回本周期:18到36年。成本分析师的总结:”在一个痴迷于优化的世界里,有时正确的答案是维持现状。”

没有任何一个智能体的分析是错误的。技术架构师的设计可行。性能工程师的token计算也没有问题。但这个决策需要全部十个视角才能避免优化陷阱。如果听从自己的直觉,我会去构建那个检索系统,因为它感觉像是进步。成本分析师提出了我无法自己提出的问题——因为三个小时的范围界定已经将我的思维锚定在了解决方案上。


协商与对决

协商是协作性的:十个智能体从不同视角评估一个决策。我还构建了一种竞争性变体,让Claude Code与Codex CLI在同一任务上竞速,盲评两个方案,然后从中综合出最强的元素。三十六场对决产生的模式值得单独撰文。简而言之:我用协商来处理架构决策,用对决来处理实施方案。协商回答”我们应该构建这个吗?”对决回答”构建它最强的方式是什么?”


维护悲观主义者与逆向思维的艺术

Charlie Munger的逆向思维技巧是这样的:不要问”我如何实现X?”,而要问”什么会确保X失败?”然后避免那些事情。9 Gary Klein的事前验尸将同一思路可操作化:假设项目已经失败了,然后解释原因。10 Philip Tetlock关于预测准确性的研究发现,整合多种视角的”狐狸型”思考者持续优于坚持一个大想法的”刺猬型”思考者。11

每个协商智能体体现了一种命名的思维框架:

智能体 思维框架 它提出的问题
维护悲观主义者 逆向思维(Munger) “什么会让我们在6个月后后悔?”
安全分析师 事前验尸(Klein) “它上线后被攻破了。我们遗漏了什么?”
创新侦察员 狐狸型思维(Tetlock) “其他领域的哪些方法适用于此?”
成本分析师 第一性原理 “数学实际上怎么说?”
UX倡导者 同理心映射 “用户如何体验这个故障?”

维护悲观主义者是我系统中最有价值的智能体。不是因为它最聪明或最全面,而是因为它提出的是我最不可能自己提出的问题。当我对构建某样东西充满兴奋时,我最不想思考的就是它在六个月后的维护成本。维护悲观主义者没有兴奋感。它没有沉没成本。它把提案当作已经存在的东西来评估,然后追问什么会出问题。

在记忆架构协商中,维护悲观主义者指出四个相互作用的记忆系统会产生16种两两故障模式。Claude Code更新频繁。外部插件在版本变更时会崩溃。静默的钩子故障意味着智能体在不完整的上下文下运行,且没有任何警告。这些不是假设性风险,而是基于悲观主义者被训练识别的模式所做出的预测。

Kahneman将事前验尸描述为他所知的最有效的去偏技术之一,因为它赋予异议以合法性。2一个被设计为提出异议的协商智能体彻底消除了社交成本。


证据关卡:不要让自己自我报告

我的工具链对每份完成报告都使用证据关卡模式。12规则是:感觉不是证据。”我相信这个能用”不是一个论断。运行测试套件并粘贴输出才是一个论断。

标准 要求的证据 不充分的证据
遵循代码库模式 指出模式名称和所在文件 “我遵循了最佳实践”
最简可行方案 指出被否决的替代方案及原因 “代码很干净”
处理了边界情况 列出具体案例及各自的处理方式 “我考虑了边界情况”
测试通过 粘贴测试输出 “测试应该能通过”
无回归 指出已检查的相关文件和功能 “其他部分应该不受影响”

含糊的措辞是危险信号:”应该”“可能”“似乎”“我相信”“看起来正确”。每个词都表明验证并未发生。12这同样适用于人类推理。当你发现自己在说”我相当确信这是正确的方法”时,那不是证据,那是系统2在给系统1盖橡皮章。

多智能体协商从结构上强制执行了证据关卡。成本分析师不会说”这在经济上可能说得通”。它说的是”当前成本每月9美元,节省5美元,构建需要200-400小时,回本周期18-36年”。安全分析师不会说”安全态势看起来合理”。它说的是”记忆投毒场景:被入侵的会话将凭证收集指令注入持久化记忆”。

我发现的最有效的去偏机制不是清单或哲学,而是一个智能体无法自我报告的系统。它们必须产出证据,而这些证据会被没有动机去附和的其他智能体所评估。


何时不该协商

协商也有其失效模式。系统在全面运行时每次增加2到4分钟和2到3美元的成本。更重要的是,它可能矫枉过正。

我对一个简单的API端点重构运行了协商。十个智能体对向后兼容性、迁移路径、速率限制、错误处理、监控和文档提出了担忧。该端点只服务于两个内部消费者。协商为一个本应只需20行代码更改的任务生成了14个行动项。我忽略了其中12个,直接发布了重构。协商在技术上是正确的——风险确实存在——但这个决策是一扇双向门。13

Jeff Bezos将类型1决策(不可逆、单向门)与类型2决策(可逆、双向门)加以区分。类型1决策需要审慎协商:数据库模式变更、安全架构、公共API契约。类型2决策需要速度:内部重构、文档更新、功能开关实验。13对轻量决策施加重量级流程本身就是一种浪费。

我遵循的规则:

应当协商的情况: - 决策不可逆或逆转成本高 - 多个权衡需要专家评估 - 你的置信度低于0.70(你感到不确定但无法说清原因) - 该领域不在你的核心专长范围内

直接决定的情况: - 变更在功能开关后面或容易回滚 - 范围可控(一个文件、一个函数、一个端点) - 你以前成功做过此类决策 - 犯错的代价低于协商的代价

绝不需要协商的情况: - 文档修复 - 变量重命名 - 测试夹具更新 - 日志消息更改

值得协商的10%决策产生了90%的价值。对所有事情都协商会导致分析瘫痪。对任何事情都不协商则会将你看不见的偏差一并发布。


两个月来的收获

自2026年1月以来,该系统已运行了大约40次协商。总结出的模式:

  1. 成本分析师是最被低估的智能体。工程师本能地关注性能工程师和安全分析师。而成本分析师通过提出工程师最不愿面对的问题——“这到底花多少钱?”——终结了比任何其他角色都多的糟糕想法。

  2. 共识低于0.70意味着问题本身有误。当智能体无法达成一致时,问题通常在于模糊的框架,而非真正的分歧。重新界定问题再运行一次,效果好于强行收敛。

  3. 维护悲观主义者能捕获事后复盘才发现的问题。维护悲观主义者对记忆架构提出的每一个担忧,后来都在维护更简单系统的实际经验中得到了验证。

  4. 两个智能体就能捕获80%的价值。最小可行模式:一个智能体正方论证,一个智能体反方论证。独立性是核心机制。十个智能体更好,但两个智能体比一个好无限倍。

  5. 协商改善的是问题,而不仅仅是答案。最常见的结果不是”胜出的方案”,而是”问题被重新框定,使得答案变得显而易见”。


参考文献


  1. Author’s deliberation session delib-20260207-082618-9105e6. 10 research agents, 3 approaches generated, winning approach scored 7.04/10 with 8/10 agent support. Full session record in Obsidian vault. 

  2. Kahneman, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, 2011. System 2 operates in “a comfortable low-effort mode” and endorses System 1 conclusions without scrutiny. 

  3. Author’s vault note, “20 Cognitive Biases That Mess Up Your Decisions.” Counter-strategies: devil’s advocate process, pre-mortem analysis, structured decision frameworks, external feedback loops. 

  4. Altman, Sam. “I think of writing as externalized thinking. If I have a very hard problem or if I feel a little bit confused about something, I have to write it down.” Via @StartupArchive_. 

  5. Minsky, Marvin, The Society of Mind, Simon & Schuster, 1986. Intelligence emerges from the interaction of many smaller, simpler agents, not from a single sophisticated process. 

  6. Ng, Andrew. Multi-agent AI patterns: debate (propose-critique-revise), collaboration (parallel specialists with synthesizer), adversarial (red team vs. blue team). Reported March 2024. 

  7. de Bono, Edward, Six Thinking Hats, Little, Brown and Company, 1985. Six parallel perspectives prevent anchoring on a single thinking mode. 

  8. Domingos, Pedro. AI as “mental exoskeleton”: extend rather than replace human cognition, represent user interests rather than flattering conclusions. 

  9. Munger, Charlie. Inversion thinking: instead of “How do I achieve X?”, ask “What would guarantee failure at X?” Then avoid those things. Frequently cited in Berkshire Hathaway shareholder meetings. 

  10. Klein, Gary, “Performing a Project Premortem,” Harvard Business Review, September 2007. Assume the project failed, then explain why. Based on research by Mitchell, Russo, and Pennington (1989) showing prospective hindsight increases identification of failure reasons by 30%. 

  11. Tetlock, Philip E., Expert Political Judgment: How Good Is It? How Can We Know?, Princeton University Press, 2005. “Foxes” who integrate multiple perspectives consistently outperform “hedgehogs” who commit to one idea. Expanded in Superforecasting (Crown, 2015). 

  12. Author’s Evidence Gate pattern. Implementation in Quality Loop rules (~/.claude/rules/quality-loop.md). Hedging language triggers mandatory re-verification. See also Jiro Quality Philosophy

  13. Bezos, Jeff, 2015 Letter to Amazon Shareholders (SEC filing). Type 1 decisions: irreversible, one-way doors requiring careful deliberation. Type 2 decisions: reversible, two-way doors requiring speed. 

相关文章

The Blind Judge: Scoring Claude Code vs Codex in 36 Duels

Claude Code vs Codex CLI, scored blind on 5 dimensions across 36 duels. The winner matters less than the synthesis combi…

14 分钟阅读

Anthropic Measured What Works. My Hooks Enforce It.

Anthropic analyzed 9,830 conversations. Iterative refinement doubles fluency markers. Polished outputs suppress evaluati…

13 分钟阅读

Multi-Agent Deliberation: When Agreement Is the Bug

Multi-agent deliberation catches failures that single-agent systems miss. Here is the architecture, the dead ends, and w…

19 分钟阅读