← 所有文章

10%之墙:为什么AI生产力停滞不前

From the guide: Claude Code Comprehensive Guide

DX对450家公司的121,000名开发者进行了调查。92.6%的开发者每月至少使用一次AI编程助手。AI编写的代码现已占生产环境合并代码的26.9%。开发者报告每周节省约四小时。1然而生产力始终未能突破10%。

这个数字已连续三个季度保持不变。1 2采用率在攀升。代码量在攀升。工具在改进。但收益没有增长。DX首席技术官Laura Tacho直言不讳地指出:”这其实是一个管理问题。炒作让人觉得只要尝试AI就能自动获得回报。”3

2025年DORA报告揭示了这种分化。拥有强大工程实践的组织,AI放大了它们现有的优势。工程实践薄弱的组织,AI放大了它们现有的问题。同样的工具,截然相反的结果。报告总结道:”AI在软件开发中的主要角色是放大器。它放大高效能组织的优势,也放大困境中组织的问题。”4

这堵墙不是模型问题,而是基础设施问题。更好的模型无法突破一堵由缺失的验证、缺失的上下文和缺失的治理所筑成的墙。本文的配套文章描述了相关架构:Anatomy of a Claw阐述编排层,The Fabrication Firewall阐述输出门控,Context Is Architecture阐述上下文注入系统。下文将解释这些系统存在的原因。

摘要

121,000名开发者接受调查,92.6%的采用率,生产力停滞在10%。三个根本原因解释了这一天花板:上下文饥饿(AI在缺乏项目知识的情况下猜测)、验证真空(代码的产出速度超过了审查的适应速度)、以及治理缺口(AI绕过了人类所执行的标准)。DORA发现,AI究竟是放大优势还是放大问题,取决于围绕它的基础设施。4突破瓶颈需要围绕AI构建基础设施,而非追求更好的AI。本文记录了一次N=1的基础设施构建尝试,其中包含一个运行着84个钩子、43个技能和19个代理的系统的具体数据。


调查数据

DX的数据集涵盖了2025年11月至2026年2月期间观测的420万名开发者,其中包括来自450家公司的121,000名开发者的详细面板数据。1这些数字讲述了两个故事。

采用率的故事是明确无误的。AI编程助手已接近全面普及。DX测量到92.6%的月度采用率和约75%的周使用率。1 Stack Overflow 2025年调查发现84%的开发者正在使用或计划使用AI工具。6 JetBrains在194个国家的24,534名开发者中测量到85%的常规使用率。7采用率的天花板已近在咫尺。

生产力的故事已经停滞。DX测量到每周平均节省四小时,与上一季度的3.6小时相比基本持平。1 2 AI编写的代码从合并代码的22%上升到26.9%,但额外的代码量并未转化为额外的产出。1 2 Laura Tacho指出了其中的数学逻辑:开发者大约花费20%的时间编写代码。对工作日20%的部分实现10%的改进,整体只有2%的提升。”打字速度从来都不是瓶颈。”8

指标 变化 来源
AI采用率(月度) 92.6% DX Q1 20261
AI编写的代码 22%升至26.9% DX Q4 2025至Q1 20261 2
每周节省时间 3.6升至约4小时 DX Q4 2025至Q1 20261 2
生产力提升 约10%(未变) DX Q1 20261
对AI准确性的信任度 43%降至29%(综合信任度) Stack Overflow 2024至20256
交付稳定性 每增加25% AI采用率下降-7.2% DORA 20245

最关键的是最后一行。DORA 2024年报告调查了39,000名专业人员,发现AI采用率每增加25%,交付吞吐量估计下降1.5%,交付稳定性下降7.2%。5 DORA 2025年报告发现,AI与吞吐量的关系从2024年观察到的负相关转变为正相关,但交付稳定性仍然与AI采用率呈负相关。4即使吞吐量有所改善,AI采用率仍然与不稳定性增加相关联。

分化比平均值更重要。METR研究了16名经验丰富的开源开发者在246个真实代码仓库问题上的表现,发现他们使用AI工具比不使用时多花了19%的时间。9 Google对96名工程师进行的随机对照试验发现速度提升了21%,但该结果不具有统计显著性(95%置信区间跨越了零)。10

McKinsey发现简单任务的收益为35-50%,但高复杂度任务不到10%,在对其自身40名开发者的研究中,使用AI的初级开发者速度反而慢了7-10%。11规律很明显:AI加速的是开发中从来都不是瓶颈的那些部分。

突破瓶颈的公司并没有使用更好的模型。他们构建了基础设施来捕获模型遗漏的内容。


为什么这堵墙存在

三个根本原因解释了这一停滞。每个原因独立发挥作用。它们共同形成了更好的模型无法穿透的天花板。

上下文饥饿

AI编程助手基于当前文件中可见的代码和提示窗口中能容纳的上下文进行操作。除非有人注入这些信息,否则它们不了解您的架构决策、您的API契约、您的部署约束或您团队的命名规范。

缺乏项目特定的上下文,模型只能猜测。它会虚构出符合常见惯例但实际不存在的文件路径。它会生成匹配通用模式但不匹配您的模式的API调用。它会建议引入您的项目并未使用的包。12

Faros AI分析了来自1,255个团队的10,000名开发者的遥测数据,发现AI辅助的拉取请求比未辅助的大154%。12更大的拉取请求意味着更多依赖上下文的错误的可能性。AI自信地生成代码。代码能编译。但代码没有考虑到记录在AI从未访问过的Confluence页面中的约束。

这种行为并非模型安全意义上的幻觉问题。模型完全按照设计运行:根据可用上下文预测可能的代码。问题在于,可用上下文排除了特定代码库中大部分对正确性至关重要的信息。

验证真空

AI生成代码的速度超过了现有审查流程的消化能力。Faros发现AI辅助的拉取请求审查时间延长了91%。12开发者完成的任务增加了21%,合并的拉取请求增加了98%,但审查流水线处理的仍是人类速度的产出。12

斯坦福大学的不安全代码研究量化了安全维度。研究人员让47名开发者在有和没有AI辅助的情况下完成编程任务。AI辅助组在五项任务中的四项中更频繁地编写出不安全的解决方案。在SQL注入任务中,AI组有36%编写了存在漏洞的代码,而对照组仅为7%。获得AI辅助的参与者更倾向于认为自己编写了安全的代码,即使事实并非如此。13更快的产出与更高的虚假自信相结合,产生了手动审查无法在规模上弥合的验证缺口。

GitClear分析了1.53亿行变更代码,发现代码返工率(代码在编写后两周内被重写)预计在2024年相比AI出现前的基线翻倍。14 AI工具带来的代码量增加产生了返工,部分抵消了生产力收益。Stack Overflow 2025年调查证实了这种摩擦:66%的开发者报告花费更多时间修复AI生成的”差不多对”的代码。6

治理缺口

AI生成的代码绕过了人类开发者已内化的治理机制。一名高级开发者知道要检查代码风格指南、运行代码检查工具、更新变更日志,以及就架构变更通知技术主管。而AI助手只是生成满足提示要求的解决方案。”能编译并通过测试”与”符合组织标准”之间的差距,就是治理的缺口。

McKinsey的研究人员将初级开发者的效率下降归因于生成代码与组织上下文之间的差距。初级开发者缺乏判断力来评估AI输出是否满足他们尚未内化的标准。如果没有将这些标准编码为自动化检查的治理基础设施,AI的输出就会不经审查地流向下游。

治理缺口在团队之间不断累积。一位开发者的AI生成工具函数与另一位开发者的现有模块重复。两个AI生成的端点对同一API使用不同的错误格式。AI编写的数据库迁移遵循与团队标准不同的命名规范。每一次违规都很小。但累积效应是代码库偏离自身规范的速度超过了审查所能纠正的速度。


墙的另一边是什么样的

DORA的发现描述了两组使用相同工具的群体。拥有强大实践的组织,AI放大了它们的优势。实践薄弱的组织,AI放大了它们的问题。4它们之间的变量不是使用了哪种AI,而是围绕AI构建的基础设施。

每个根本原因都对应一个基础设施修复方案。下表展示了从问题到解决方案的链条,并附有一个来自我构建并在配套文章中记录的系统的具体实现。这个示例是具有具体数据的一次尝试,而非通用处方。

根本原因 破坏了什么 基础设施修复方案 实现方式
上下文饥饿 虚构路径、错误的API、遗漏约束 提示时注入上下文 每次提示触发9个钩子,注入日期、分支、项目文档和架构上下文15详细架构
验证真空 缺陷产出速度超过审查捕获速度 独立测试执行、自动化审查 Ralph自主循环:测试运行器验证每项变更,然后3个独立审查代理(正确性、安全性、规范性)在合并前进行评估15完整系统
治理缺口 标准被绕过、规范漂移 带有证据要求的自动化质量门控 证据门控:6项标准需提供证明,7种命名的失败模式,模糊语言检测15质量理念

上下文注入通过确保模型在每次提示时都能收到项目特定信息来解决上下文饥饿问题。一个调度器钩子触发九个顺序处理器,注入当前日期、Git分支、工作目录、项目规范、活动任务上下文和架构约束。模型在处理用户请求之前会收到200-400个token的基础上下文。实测延迟:全部九个钩子总计200毫秒。模型不再猜测文件路径,因为它已被告知了实际路径。15

独立验证通过将人类从常规检查的验证瓶颈中移除来解决验证真空问题。自主开发循环(在Anatomy of a Claw中有详细记录)生成代码、运行完整的测试套件,并将结果提交给三个独立运行的审查代理。实现代理从不审查自己的输出。这种分离印证了斯坦福研究的发现——AI辅助组对不安全的代码更有自信:无论作者是人类还是AI,自我验证都是不可靠的。13

自动化治理通过将团队标准编码为可执行检查来解决治理缺口问题。Fabrication Firewall将每个外发操作分类为本地、共享或外部,将外部发布推迟到人工审查。质量门控会阻止使用模糊语言(如”应该能用”“看起来正确”)的完成报告,要求引用测试输出和文件路径。该系统强制执行了人类开发者在有时间审查每一行代码时会应用的标准。在AI生成的速度下,他们没有这个时间。

这个综合系统在其自身代码库上产生了可衡量的结果:4,518个代码块被索引用于语义搜索,15,800个文件中的49,746个知识库块用于持久记忆,以及一个在任何变更报告完成前自动运行的测试套件。15这些数字描述的是一位开发者的基础设施。它们无法证明这种方法具有普适性。但它们可以证明,有了正确的工具,这堵墙是可以穿透的。


治理比率

Anatomy of a Claw中描述的钩子系统包含84个钩子。经过验证的统计按功能分类:35个判断钩子决定某件事是否应该发生,44个自动化钩子执行预定操作,5个工具钩子(调度器、状态管理)。治理比率为4:5。最初为1:6。15

初始比率反映了大多数团队首先构建的内容:自动化。注入上下文。记录指标。格式化输出。记录使用情况。这些钩子捕获了所有人都能获得的那10%。它们自动化了在AI之前就已经部分自动化的开发中的机械性部分。DX的数据证实了这一点:每周节省的四小时来自代码生成和模板代码简化——这些本就是开发周期中最快的任务。1

向判断钩子的转移反映了额外收益的来源。

投入方向 捕获的内容 阶段
自动化钩子(注入、记录、格式化) 最初的10% 采用基线
判断钩子(验证、门控、审查) 接下来的10-30% 突破瓶颈
组织级整合(工作流、反馈循环) 复合增长收益 持续改进

McKinsey 2025年对近300家上市公司的调查发现,表现最优秀的企业生产力提升了16-30%,质量提升了31-45%。16这些组织实现了80-100%的开发者采用率,并结合了组织级整合。区分因素不是采用率(采用率普遍与10%的收益相关),而是围绕采用率构建的基础设施和流程。

Laura Tacho的论断在此同样适用:”对于任何承诺在不解决底层约束的情况下提升性能的技术,我都持怀疑态度。”3底层约束是判断约束。这段代码符合我们的标准吗?这个变更会破坏下游功能吗?这个输出包含虚构内容吗?自动化钩子无法回答这些问题。判断钩子可以——虽然不完美——通过编码资深开发者在心智上应用的标准来实现。

比率尚未达到均衡。系统的自动化程度仍然高于治理程度。这种失衡本身就是一个诊断指标:任何自动化钩子数量超过判断钩子的编排层都有改进空间。


您真正需要构建的

配套文章中描述的系统有84个钩子、43个技能、19个代理和15,000行基础设施代码。15您不需要15,000行。您需要三样东西。

一个上下文注入钩子。五行bash脚本,将当前日期、分支和工作目录注入每个AI提示。这个注入消除了一整类幻觉:模型不再虚构文件路径和分支名称,因为它已有了真实的信息。

#!/bin/bash
# inject-context.sh — minimum viable context injection
echo "Date: $(date +%Y-%m-%d)"
echo "Branch: $(git branch --show-current 2>/dev/null || echo 'not a git repo')"
echo "Directory: $(pwd)"

一个质量门控。十五行脚本,扫描完成报告中的模糊语言。如果代理说”应该能用”而不是引用测试输出,门控就会拦截。质量门控以最低成本的切入点解决了验证真空问题。15

#!/bin/bash
# quality-gate.sh — minimum viable verification
INPUT=$(cat)
HEDGES=$(echo "$INPUT" | grep -ciE '\bshould (work|pass|be fine)\b|\bprobably\b|\blooks correct\b')
if [ "$HEDGES" -gt 0 ]; then
  echo '{"decision":"block","reason":"Hedging language detected. Cite test output instead."}'
else
  echo '{"decision":"allow"}'
fi

一个独立的测试运行器。一个钩子,在每次代码变更后运行项目的测试套件,测试失败时发出明确警告。具体实现因项目而异。但原则不变:编写代码的代理不能是该代码的唯一裁判。

从您工作流中最常出问题的地方开始。如果您的AI虚构文件路径,先构建上下文钩子。如果您的AI提交未经测试的代码,先构建测试运行器。如果您的AI在没有证据的情况下说”完成了”,先构建质量门控。

Karpathy描述了从随性编程到代理工程的演变:”编排完成[工作]的代理并充当监督者。”17上述三个钩子是最小可行的监督方案。它们不会带来30%的收益。但它们会让您从10%向15%迈进,而且每添加一个,都会揭示下一个值得解决的约束。

这堵墙是真实的。它也是具体的。上下文饥饿、验证真空和治理缺口是有工程解决方案的工程问题。模型会持续改进。但对于每一个将AI视为代码生成器而非需要基础设施来治理其输出的系统的团队来说,这堵墙将始终停在10%。


核心要点

对于个人开发者。从一个上下文注入钩子开始。五行bash脚本注入日期、分支和工作目录,就能消除一整类AI幻觉。当模型知道您的实际文件路径而非靠猜测时,这堵墙就开始松动了。

对于团队主管。衡量您的治理比率:您的AI钩子中有多少是验证输出的,有多少是自动化任务的。如果自动化钩子多于判断钩子,您的团队只捕获了最初的10%。DX的数据证实,每周节省的四小时来自代码生成——这些本就是开发周期中最快的任务。1

对于平台工程师。在扩大AI采用之前先构建验证层。DORA发现,在没有工程基础设施的情况下部署AI的组织,不稳定性随采用率的增加而上升。4 5三个根本原因对应三个基础设施修复方案。从您流水线中造成最大摩擦的那个开始。


参考来源


  1. Ivan Brezak Brkan, “This CTO Says 93% of Developers Use AI – but Productivity Is Still ~10%,” ShiftMag, February 18, 2026, shiftmag.dev. Data from DX (a developer analytics company), based on 121,000+ developers across 450+ companies and a broader pool of 4.2 million developers observed November 2025 to February 2026. 

  2. Laura Tacho, “AI-Assisted Engineering: Q4 Impact Report,” DX, November 4, 2025, getdx.com. Data from 135,000+ developers across 435 companies, July to October 2025. 

  3. Laura Tacho, quoted in Brkan, “This CTO Says 93% of Developers Use AI.” Full quote: “This is really a management problem. The hype made it sound like just trying AI would automatically pay off.” 

  4. DORA, Accelerate State of AI-assisted Software Development 2025, Google, September 29, 2025, dora.dev. Nearly 5,000 technology professionals surveyed. Key finding: “AI’s primary role in software development is that of an amplifier.” 

  5. DORA, Accelerate State of DevOps Report 2024, Google, October 2024, dora.dev. 39,000+ professionals surveyed. For every 25% increase in AI adoption: estimated 1.5% decrease in delivery throughput, 7.2% decrease in delivery stability. 

  6. Stack Overflow, 2025 Developer Survey, July 29, 2025, survey.stackoverflow.co. 49,000+ total respondents from 177 countries. Combined trust declined from 43% (2024) to 29% (2025). Nearly 46% actively distrust AI accuracy (26.1% somewhat + 19.6% highly). 66% report spending more time fixing “almost-right” AI-generated code. 

  7. JetBrains, State of Developer Ecosystem 2025, October 2025, blog.jetbrains.com. 24,534 developers across 194 countries. 85% regular AI tool usage; 23% cite code quality as top concern. 

  8. Laura Tacho, interviewed by Gergely Orosz, “Measuring the Impact of AI on Software Engineering,” Pragmatic Engineer, July 23, 2025, newsletter.pragmaticengineer.com. “Typing speed has never been the bottleneck.” 

  9. Joel Becker, Nate Rush, Elizabeth Barnes, and David Rein, “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity,” METR, July 10, 2025, metr.org. 16 experienced developers, 246 real repository issues. Developers took 19% longer with AI tools. 

  10. Elise Paradis et al., “How Much Does AI Impact Development Speed? An Enterprise-Based Randomized Controlled Trial,” arXiv preprint, October 16, 2024, arxiv.org. 96 Google engineers. ~21% speed improvement, not statistically significant (95% CI: [-0.51, 0.03]). 

  11. Begum Karaci Deniz et al., “Unleashing Developer Productivity with Generative AI,” McKinsey, June 27, 2023, mckinsey.com. 40 McKinsey developers. Gains of 35-50% on simple tasks; less than 10% on high-complexity tasks. Junior developers 7-10% slower. 

  12. Neely Dunlap, “The AI Productivity Paradox Research Report,” Faros AI (a DevOps analytics vendor), July 23, 2025 (updated January 8, 2026), faros.ai. 10,000+ developers across 1,255 teams. AI-assisted PRs: 9% more bugs, 91% longer reviews, 154% larger. Developers complete 21% more tasks and merge 98% more PRs. 

  13. Neil Perry, Megha Srivastava, Deepak Kumar, and Dan Boneh, “Do Users Write More Insecure Code with AI Assistants?” in CCS ‘23: Proceedings of the 2023 ACM SIGSAC Conference, November 2023, arxiv.org. 47 participants. AI-assisted group wrote insecure solutions more often in 4 of 5 tasks. SQL injection vulnerability: 36% AI group vs. 7% control. 

  14. William Harding and Matthew Kloster, “Coding on Copilot: 2023 Data Suggests Downward Pressure on Code Quality,” GitClear (a code analytics vendor), January 2024, gitclear.com. 153 million changed lines of code analyzed. Code churn projected to double in 2024 compared to 2021 pre-AI baseline. 

  15. Author’s analysis. Hook system described in “Anatomy of a Claw: 84 Hooks as an Orchestration Layer.” Output firewall described in “The Fabrication Firewall.” Context injection described in “Context Is Architecture.” Quality system described in “Jiro Quality Philosophy.” Verified counts: 84 hooks (35 judgment, 44 automation), 43 skills, 19 agents, 30+ library modules, ~15,000 lines of code. Semantic code search: 4,518 chunks indexed across 653 files. Persistent memory: 49,746 chunks across 15,800 files. 

  16. McKinsey, “Unlocking the Value of AI in Software Development,” November 3, 2025, mckinsey.com. Nearly 300 publicly traded companies. Highest performers: 16-30% productivity, 31-45% quality improvement. Companies with 80-100% developer adoption saw gains of 110%+. 

  17. Andrej Karpathy, post on X, February 4, 2026. “Many people have tried to come up with a better name…my current favourite: ‘agentic engineering.’ ‘Agentic’ because the new default is that you are not writing the code directly 99% of the time, you are orchestrating agents who do and acting as oversight.” 

相关文章

Anthropic Measured What Works. My Hooks Enforce It.

Anthropic analyzed 9,830 conversations. Iterative refinement doubles fluency markers. Polished outputs suppress evaluati…

14 分钟阅读

What Actually Breaks When You Run AI Agents Unsupervised

Seven named failure modes from 500+ autonomous agent sessions. Each has a detection signal, a real example, and a concre…

16 分钟阅读

Context Window Management: What 50 Sessions Taught Me About AI Development

I measured token consumption across 50 Claude Code sessions. Context exhaustion degrades output before you notice. Here …

6 分钟阅读