← Wszystkie wpisy

Ściana 10%: Dlaczego produktywność AI osiąga plateau

From the guide: Claude Code Comprehensive Guide

DX przebadało 121 000 programistów w 450 firmach. 92,6% korzysta z asystentów kodowania AI przynajmniej raz w miesiącu. Kod wygenerowany przez AI stanowi obecnie 26,9% produkcyjnych merge’ów. Programiści deklarują oszczędność około czterech godzin tygodniowo.1 Produktywność nie przekroczyła poziomu 10%.

Ta liczba utrzymuje się na stałym poziomie od trzech kolejnych kwartałów.1 2 Adopcja rosła. Objętość kodu rosła. Narzędzia się poprawiały. Zyski — nie. Laura Tacho, CTO w DX, ujęła to wprost: „To naprawdę problem zarządzania. Szum medialny sprawiał, że brzmiało to tak, jakby samo wypróbowanie AI miało automatycznie się opłacić.”3

Raport DORA 2025 ujawnił rozbieżność. Organizacje z silnymi praktykami inżynieryjnymi widziały, jak AI wzmacnia ich istniejące atuty. Organizacje ze słabymi praktykami widziały, jak AI wzmacnia ich istniejące dysfunkcje. Te same narzędzia. Przeciwne wyniki. Raport konkludował: „Główną rolą AI w rozwoju oprogramowania jest rola wzmacniacza. Potęguje mocne strony wysoko wydajnych organizacji i dysfunkcje tych, które mają problemy.”4

Ściana nie jest problemem modelu. Jest problemem infrastruktury. Lepsze modele nie przebiją się przez ścianę zbudowaną z brakującej weryfikacji, brakującego kontekstu i brakującego nadzoru. Towarzyszące temu wpisowi posty opisują architekturę: Anatomy of a Claw wyjaśnia warstwę orkiestracji, The Fabrication Firewall wyjaśnia bramkę wyjściową, a Context Is Architecture wyjaśnia system wstrzykiwania kontekstu. Poniższy wpis wyjaśnia, dlaczego te systemy istnieją.

TL;DR

121 000 programistów zbadanych, 92,6% adopcji, produktywność utknęła na 10%. Trzy przyczyny źródłowe wyjaśniają ten sufit: głód kontekstu (AI zgaduje bez wiedzy o projekcie), próżnia weryfikacyjna (kod jest dostarczany szybciej, niż recenzja się adaptuje) i luka w nadzorze (AI omija standardy, które ludzie egzekwują). DORA ustaliło, że AI wzmacnia zarówno mocne strony, jak i dysfunkcje, w zależności od otaczającej infrastruktury.4 Przebicie się wymaga infrastruktury wokół AI, nie lepszego AI. Wpis dokumentuje jedną próbę N=1 budowy takiej infrastruktury, z konkretnymi liczbami z systemu obsługującego 84 hooki, 43 umiejętności i 19 agentów.


Co mówią badania

Zbiór danych DX obejmuje 4,2 miliona programistów obserwowanych między listopadem 2025 a lutym 2026, z detalicznym panelem 121 000 programistów z 450 firm.1 Liczby opowiadają dwie historie.

Historia adopcji jest jednoznaczna. Asystenci kodowania AI osiągnęli niemal powszechną penetrację. DX zmierzyło 92,6% miesięcznej adopcji i około 75% tygodniowego użycia.1 Ankieta Stack Overflow z 2025 roku wykazała, że 84% programistów używa lub planuje używać narzędzi AI.6 JetBrains zmierzył 85% regularnego użycia wśród 24 534 programistów w 194 krajach.7 Sufit adopcji jest bliski.

Historia produktywności utknęła. DX zmierzyło średnio cztery godziny oszczędności tygodniowo, bez zmian w porównaniu z 3,6 godziny z poprzedniego kwartału.1 2 Kod generowany przez AI wzrósł z 22% do 26,9% scalonego kodu, ale dodatkowa objętość nie przełożyła się na dodatkowy wynik.1 2 Laura Tacho wskazała na matematykę: programiści spędzają mniej więcej 20% czasu na pisaniu kodu. 10% poprawa na 20% dnia pracy to 2% poprawa ogółem. „Szybkość pisania nigdy nie była wąskim gardłem.”8

Metryka Zmiana Źródło
Adopcja AI (miesięczna) 92,6% DX Q1 20261
Kod autorstwa AI 22% do 26,9% DX Q4 2025 do Q1 20261 2
Zaoszczędzone godziny tygodniowo 3,6 do ~4 DX Q4 2025 do Q1 20261 2
Wzrost produktywności ~10% (bez zmian) DX Q1 20261
Zaufanie do dokładności AI 43% do 29% (łączne zaufanie) Stack Overflow 2024 do 20256
Stabilność dostarczania -7,2% na każde 25% adopcji AI DORA 20245

Krytyczny jest ostatni wiersz. Raport DORA z 2024 zbadał 39 000 specjalistów i stwierdził, że na każde 25% wzrostu adopcji AI przepustowość dostarczania spadała szacunkowo o 1,5%, a stabilność dostarczania o 7,2%.5 Raport DORA z 2025 wykazał, że relacja AI-przepustowość przesunęła się z negatywnej korelacji zaobserwowanej w 2024 na pozytywną, ale stabilność dostarczania pozostała negatywnie powiązana z adopcją AI.4 Adopcja AI nadal korelowała ze zwiększoną niestabilnością, nawet gdy przepustowość się poprawiała.

Rozbieżność ma większe znaczenie niż średnie. METR zbadało 16 doświadczonych programistów open-source pracujących nad 246 prawdziwymi problemami repozytoriów i stwierdziło, że z narzędziami AI pracowali o 19% dłużej niż bez nich.9 Randomizowane badanie kontrolowane Google z udziałem 96 inżynierów wykazało 21% przyspieszenie, ale wynik nie był istotny statystycznie (95% CI przecinało zero).10

McKinsey stwierdził zyski rzędu 35-50% przy prostych zadaniach, ale poniżej 10% przy zadaniach o wysokiej złożoności, a młodsi programiści używający AI byli o 7-10% wolniejsi w badaniu obejmującym 40 własnych programistów.11 Wzorzec: AI przyspiesza te części programowania, które nigdy nie były wąskim gardłem.

Firmy, które przebiły się przez ścianę, nie używały lepszych modeli. Zbudowały infrastrukturę, która wyłapywała to, co modele pomijały.


Dlaczego ściana istnieje

Trzy przyczyny źródłowe wyjaśniają plateau. Każda działa niezależnie. Razem tworzą sufit, którego lepsze modele nie są w stanie przebić.

Głód kontekstu

Asystenci kodowania AI operują na kodzie widocznym w bieżącym pliku i kontekście, który mieści się w oknie promptu. Nie znają decyzji architektonicznych projektu, kontraktów API, ograniczeń wdrożeniowych ani konwencji nazewnictwa zespołu, chyba że ktoś wstrzyknie te informacje.

Bez kontekstu specyficznego dla projektu model zgaduje. Halucynuje ścieżki plików, które pasują do prawdopodobnych konwencji, ale nie istnieją. Generuje wywołania API do endpointów, które pasują do typowych wzorców, ale nie do wzorców danego projektu. Sugeruje importy z pakietów, których projekt nie używa.12

Faros AI przeanalizowało telemetrię od 10 000 programistów z 1 255 zespołów i stwierdziło, że pull requesty wspomagane przez AI są o 154% większe od tych bez wspomagania.12 Większe PR-y niosą większą powierzchnię dla błędów zależnych od kontekstu. AI generuje kod z pewnością siebie. Kod się kompiluje. Kod nie uwzględnia ograniczenia udokumentowanego na stronie Confluence, której AI nigdy nie widziało.

To zachowanie nie jest problemem halucynacji w sensie bezpieczeństwa modelu. Model działa dokładnie zgodnie z projektem: przewiduje prawdopodobny kod na podstawie dostępnego kontekstu. Problem polega na tym, że dostępny kontekst wyklucza większość tego, co ma znaczenie dla poprawności w konkretnej bazie kodu.

Próżnia weryfikacyjna

AI generuje kod szybciej, niż istniejące procesy recenzji mogą go wchłonąć. Faros stwierdził, że PR-y wspomagane przez AI są recenzowane o 91% dłużej.12 Programiści realizują o 21% więcej zadań i scalają o 98% więcej pull requestów, ale pipeline recenzji jest przystosowany do ludzkiej prędkości.12

Badanie Stanford dotyczące niebezpiecznego kodu skwantyfikowało wymiar bezpieczeństwa. Badacze dali 47 programistom zadania kodowania z pomocą AI i bez niej. Grupa wspomagana przez AI pisała niebezpieczne rozwiązania częściej w czterech z pięciu zadań. W zadaniu dotyczącym SQL injection 36% grupy AI napisało podatny kod w porównaniu z 7% grupy kontrolnej. Uczestnicy korzystający z pomocy AI częściej wierzyli, że napisali bezpieczny kod, nawet gdy tak nie było.13 Połączenie szybszego wytwarzania i wyższej fałszywej pewności tworzy lukę weryfikacyjną, której manualna recenzja nie jest w stanie zamknąć na skalę.

GitClear przeanalizował 153 miliony zmienionych linii kodu i stwierdził, że code churn (kod przepisany w ciągu dwóch tygodni od napisania) miał się podwoić w 2024 w porównaniu z bazą sprzed ery AI.14 Wzrost objętości z narzędzi AI tworzy przeróbki, które częściowo niwelują zyski produktywności. Ankieta Stack Overflow z 2025 potwierdza to tarcie: 66% programistów deklaruje, że spędza więcej czasu na poprawianiu „prawie poprawnego” kodu wygenerowanego przez AI.6

Luka w nadzorze

Kod generowany przez AI omija mechanizmy nadzoru, które ludzcy programiści zinternalizowali. Starszy programista wie, że trzeba sprawdzić przewodnik stylu, uruchomić linter, zaktualizować changelog i powiadomić lidera zespołu o zmianach architektonicznych. Asystent AI generuje rozwiązanie, które spełnia prompt. Luka między „kompiluje się i przechodzi testy” a „spełnia standardy organizacyjne” to właśnie nadzór.

Badacze McKinsey przypisali spowolnienie młodszych programistów luce między wygenerowanym kodem a kontekstem organizacyjnym. Młodsi programiści nie mają osądu, by ocenić, czy wynik AI spełnia standardy, których jeszcze nie zinternalizowali. Bez infrastruktury nadzoru, która koduje te standardy jako automatyczne kontrole, wynik AI przepływa dalej bez weryfikacji.

Luka w nadzorze kumuluje się w zespołach. Narzędzie wygenerowane przez AI jednego programisty duplikuje istniejący moduł innego programisty. Dwa endpointy wygenerowane przez AI używają różnych formatów błędów dla tego samego API. Migracje wygenerowane przez AI stosują inną konwencję nazewnictwa niż standard zespołu. Każde naruszenie jest małe. Efekt kumulatywny to baza kodu, która odchodzi od własnych konwencji szybciej, niż recenzja jest w stanie to skorygować.


Jak wygląda druga strona

Odkrycie DORA opisuje dwie populacje używające identycznych narzędzi. Organizacje z silnymi praktykami widziały, jak AI wzmacnia ich mocne strony. Organizacje ze słabymi praktykami widziały, jak AI wzmacnia ich dysfunkcje.4 Zmienną między nimi nie jest to, jakiego AI używają. Jest nią infrastruktura wokół AI.

Każda przyczyna źródłowa mapuje się na rozwiązanie infrastrukturalne. Poniższa tabela mapuje łańcuch od problemu do rozwiązania, z jedną konkretną implementacją z systemu, który zbudowałem i udokumentowałem w towarzyszących wpisach. Przykład to jedna próba z konkretnymi liczbami, nie uniwersalna recepta.

Przyczyna źródłowa Co się psuje Rozwiązanie infrastrukturalne Implementacja
Głód kontekstu Halucynowane ścieżki, błędne API, brakujące ograniczenia Wstrzykiwanie kontekstu w momencie promptu 9 hooków na każdy prompt wstrzykuje datę, branch, dokumentację projektu i kontekst architektoniczny15 (szczegółowa architektura)
Próżnia weryfikacyjna Błędy dostarczane szybciej, niż recenzja je wyłapuje Niezależne wykonanie testów, automatyczna recenzja Autonomiczna pętla Ralph: runner testów weryfikuje każdą zmianę, następnie 3 niezależne agenty recenzenckie (poprawność, bezpieczeństwo, konwencje) oceniają przed scaleniem15 (pełny system)
Luka w nadzorze Standardy omijane, konwencje dryfują Automatyczne bramki jakości z wymogami dowodowymi Evidence Gate: 6 kryteriów z wymaganym dowodem, 7 nazwanych trybów awarii, wykrywanie języka unikowego15 (filozofia jakości)

Wstrzykiwanie kontekstu rozwiązuje głód, zapewniając, że model otrzymuje informacje specyficzne dla projektu przy każdym prompcie. Hook dispatchera uruchamia dziewięć sekwencyjnych handlerów, które wstrzykują aktualną datę, branch Git, katalog roboczy, konwencje projektu, kontekst aktywnego zadania i ograniczenia architektoniczne. Model otrzymuje 200-400 tokenów kontekstu zakotwiczającego przed przetworzeniem zapytania użytkownika. Zmierzone opóźnienie: 200 ms łącznie dla wszystkich dziewięciu hooków. Model przestaje zgadywać ścieżki plików, ponieważ otrzymał rzeczywiste ścieżki.15

Niezależna weryfikacja rozwiązuje próżnię, usuwając ludzi z wąskiego gardła weryfikacji przy rutynowych kontrolach. Autonomiczna pętla rozwojowa (udokumentowana w Anatomy of a Claw) generuje kod, uruchamia pełny zestaw testów i przekazuje wyniki trzem agentom recenzenckim, którzy działają niezależnie. Agent implementacyjny nigdy nie recenzuje własnego wyniku. Separacja odzwierciedla odkrycie, że grupa wspomagana przez AI w badaniu Stanford była bardziej pewna niebezpiecznego kodu: samoweryfikacja jest zawodna, niezależnie od tego, czy autorem jest człowiek, czy sztuczna inteligencja.13

Zautomatyzowany nadzór rozwiązuje lukę, kodując standardy zespołu jako wykonywalne kontrole. The Fabrication Firewall klasyfikuje każdą akcję wychodzącą jako lokalną, współdzieloną lub zewnętrzną, odraczając publikację zewnętrzną do recenzji ludzkiej. Bramki jakości blokują raporty zakończenia, które używają języka unikowego („powinno działać”, „wygląda poprawnie”) zamiast cytowania wyników testów i ścieżek plików. System egzekwuje standardy, które ludzcy programiści stosowaliby, gdyby mieli czas na przegląd każdej linii. Przy prędkości generowania AI — nie mają.

Połączony system daje mierzalne wyniki na własnej bazie kodu: 4 518 fragmentów kodu zindeksowanych do wyszukiwania semantycznego, 49 746 fragmentów vault w 15 800 plikach do trwałej pamięci i zestaw testów, który uruchamia się automatycznie przed zgłoszeniem zakończenia jakiejkolwiek zmiany.15 Te liczby opisują infrastrukturę jednego programisty. Nie mogą udowodnić, że podejście się uogólnia. Mogą zademonstrować, że ściana jest przenikalna przy odpowiednich narzędziach po drugiej stronie.


Współczynnik nadzoru

System hooków opisany w Anatomy of a Claw zawiera 84 hooki. Zweryfikowane zliczenie dzieli je według funkcji: 35 hooków osądowych, które decydują, czy coś powinno się zdarzyć, 44 hooki automatyzacyjne, które wykonują z góry określone akcje, i 5 hooków narzędziowych (dispatchery, zarządzanie stanem). Współczynnik nadzoru wynosi 4:5. Na początku wynosił 1:6.15

Początkowy współczynnik odzwierciedla to, co większość zespołów buduje najpierw: automatyzację. Wstrzyknij kontekst. Zapisz metryki. Sformatuj wynik. Zaloguj użycie. Te hooki wychwytują te 10%, które każdy uzyskuje. Automatyzują mechaniczne części programowania, które były już częściowo zautomatyzowane przed AI. Dane DX potwierdzają to: cztery zaoszczędzone godziny tygodniowo pochodzą z generowania kodu i redukcji szablonowego kodu — zadań, które już były najszybszą częścią cyklu rozwojowego.1

Przesunięcie w kierunku hooków osądowych odzwierciedla, skąd pochodzą dodatkowe zyski.

Inwestycja Co przechwytuje Etap
Hooki automatyzacyjne (wstrzykiwanie, logowanie, formatowanie) Pierwsze 10% Bazowy poziom adopcji
Hooki osądowe (weryfikacja, bramkowanie, recenzja) Kolejne 10-30% Przebijanie się
Integracja organizacyjna (workflow, pętle zwrotne) Zyski kumulatywne Trwała poprawa

Ankieta McKinsey z 2025 obejmująca blisko 300 spółek giełdowych wykazała, że najlepsi osiągnęli poprawę produktywności o 16-30% i poprawę jakości o 31-45%.16 Organizacje te miały 80-100% adopcję wśród programistów połączoną z integracją organizacyjną. Czynnikiem wyróżniającym nie był wskaźnik adopcji (który koreluje z 10% zyskami w każdym przypadku), lecz infrastruktura i procesy zbudowane wokół tej adopcji.

Ujęcie Laury Tacho stosuje się tutaj: „Jestem sceptyczna wobec obietnic jakiejkolwiek technologii poprawy wydajności bez zaadresowania tych podstawowych ograniczeń.”3 Podstawowe ograniczenia to ograniczenia osądu. Czy ten kod spełnia nasze standardy? Czy ta zmiana psuje coś dalej w procesie? Czy ten wynik zawiera fabrykację? Hooki automatyzacyjne nie mogą odpowiedzieć na te pytania. Hooki osądowe mogą — niedoskonale — kodując kryteria, które doświadczeni programiści stosują mentalnie.

Współczynnik nie osiągnął jeszcze parytetu. System nadal automatyzuje więcej, niż nadzoruje. Sam brak równowagi jest diagnostyczny: każda warstwa orkiestracji, w której hooki automatyzacyjne przewyższają liczebnie hooki osądowe, ma pole do poprawy.


Co faktycznie trzeba zbudować

System opisany w towarzyszących wpisach ma 84 hooki, 43 umiejętności, 19 agentów i 15 000 linii infrastruktury.15 Nie potrzeba 15 000 linii. Potrzeba trzech rzeczy.

Jeden hook wstrzykiwania kontekstu. Pięć linii basha, które wstrzykują aktualną datę, branch i katalog roboczy do każdego promptu AI. Wstrzyknięcie eliminuje całą kategorię halucynacji: model przestaje wymyślać ścieżki plików i nazwy branchy, ponieważ ma prawdziwe.

#!/bin/bash
# inject-context.sh — minimum viable context injection
echo "Date: $(date +%Y-%m-%d)"
echo "Branch: $(git branch --show-current 2>/dev/null || echo 'not a git repo')"
echo "Directory: $(pwd)"

Jedna bramka jakości. Piętnaście linii, które wyszukują w raportach zakończenia język unikowy. Jeśli agent mówi „powinno działać” zamiast cytować wyniki testów, bramka blokuje. Bramka rozwiązuje próżnię weryfikacyjną w najtańszym możliwym punkcie wejścia.15

#!/bin/bash
# quality-gate.sh — minimum viable verification
INPUT=$(cat)
HEDGES=$(echo "$INPUT" | grep -ciE '\bshould (work|pass|be fine)\b|\bprobably\b|\blooks correct\b')
if [ "$HEDGES" -gt 0 ]; then
  echo '{"decision":"block","reason":"Hedging language detected. Cite test output instead."}'
else
  echo '{"decision":"allow"}'
fi

Jeden niezależny runner testów. Hook, który uruchamia zestaw testów projektu po każdej zmianie kodu i głośno informuje o niepowodzeniu, gdy testy się psują. Implementacja różni się w zależności od projektu. Zasada nie: agent, który pisze kod, nie może być jedynym sędzią tego kodu.

Zacznij od tego, co najczęściej się psuje w codziennej pracy. Jeśli AI halucynuje ścieżki plików, najpierw zbuduj hook kontekstowy. Jeśli AI dostarcza nieprzetestowany kod, najpierw zbuduj runner testów. Jeśli AI pisze „gotowe” bez dowodów, najpierw zbuduj bramkę jakości.

Karpathy opisał ewolucję od vibe codingu do inżynierii agentowej: „orkiestracja agentów, którzy [wykonują pracę] i pełnienie roli nadzoru.”17 Trzy powyższe hooki to minimalne narzędzia nadzoru. Nie przyniosą 30% zysków. Przesuną z 10% w kierunku 15%, a każdy dodany ujawni kolejne ograniczenie warte zaadresowania.

Ściana jest realna. Jest też konkretna. Głód kontekstu, próżnia weryfikacyjna i luka w nadzorze to problemy inżynieryjne z inżynieryjnymi rozwiązaniami. Modele będą się dalej poprawiać. Ściana utrzyma się na 10% dla każdego zespołu, który traktuje AI jako generator kodu zamiast systemu wymagającego infrastruktury do nadzorowania jego wyników.


Kluczowe wnioski

Dla indywidualnych programistów. Zacznij od jednego hooka wstrzykiwania kontekstu. Pięć linii basha wstrzykujących datę, branch i katalog roboczy eliminuje całą kategorię halucynacji AI. Ściana zaczyna pękać, gdy model zna rzeczywiste ścieżki plików zamiast je zgadywać.

Dla liderów zespołów. Zmierz swój współczynnik nadzoru: ile hooków AI weryfikuje wyniki w porównaniu z automatyzacją zadań. Jeśli hooki automatyzacyjne przewyższają liczebnie hooki osądowe, zespół przechwytuje jedynie pierwsze 10%. Dane DX potwierdzają, że cztery zaoszczędzone godziny tygodniowo pochodzą z generowania kodu — zadań, które już były najszybszą częścią cyklu rozwojowego.1

Dla inżynierów platformowych. Zbuduj warstwę weryfikacji przed skalowaniem adopcji AI. DORA ustaliło, że organizacje wdrażające AI bez infrastruktury inżynieryjnej widziały wzrost niestabilności wraz z adopcją.4 5 Trzy przyczyny źródłowe mapują się na trzy rozwiązania infrastrukturalne. Zacznij od tego, które powoduje największe tarcie w pipeline.


Źródła


  1. Ivan Brezak Brkan, “This CTO Says 93% of Developers Use AI – but Productivity Is Still ~10%,” ShiftMag, February 18, 2026, shiftmag.dev. Data from DX (a developer analytics company), based on 121,000+ developers across 450+ companies and a broader pool of 4.2 million developers observed November 2025 to February 2026. 

  2. Laura Tacho, “AI-Assisted Engineering: Q4 Impact Report,” DX, November 4, 2025, getdx.com. Data from 135,000+ developers across 435 companies, July to October 2025. 

  3. Laura Tacho, quoted in Brkan, “This CTO Says 93% of Developers Use AI.” Full quote: “This is really a management problem. The hype made it sound like just trying AI would automatically pay off.” 

  4. DORA, Accelerate State of AI-assisted Software Development 2025, Google, September 29, 2025, dora.dev. Nearly 5,000 technology professionals surveyed. Key finding: “AI’s primary role in software development is that of an amplifier.” 

  5. DORA, Accelerate State of DevOps Report 2024, Google, October 2024, dora.dev. 39,000+ professionals surveyed. For every 25% increase in AI adoption: estimated 1.5% decrease in delivery throughput, 7.2% decrease in delivery stability. 

  6. Stack Overflow, 2025 Developer Survey, July 29, 2025, survey.stackoverflow.co. 49,000+ total respondents from 177 countries. Combined trust declined from 43% (2024) to 29% (2025). Nearly 46% actively distrust AI accuracy (26.1% somewhat + 19.6% highly). 66% report spending more time fixing “almost-right” AI-generated code. 

  7. JetBrains, State of Developer Ecosystem 2025, October 2025, blog.jetbrains.com. 24,534 developers across 194 countries. 85% regular AI tool usage; 23% cite code quality as top concern. 

  8. Laura Tacho, interviewed by Gergely Orosz, “Measuring the Impact of AI on Software Engineering,” Pragmatic Engineer, July 23, 2025, newsletter.pragmaticengineer.com. “Typing speed has never been the bottleneck.” 

  9. Joel Becker, Nate Rush, Elizabeth Barnes, and David Rein, “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity,” METR, July 10, 2025, metr.org. 16 experienced developers, 246 real repository issues. Developers took 19% longer with AI tools. 

  10. Elise Paradis et al., “How Much Does AI Impact Development Speed? An Enterprise-Based Randomized Controlled Trial,” arXiv preprint, October 16, 2024, arxiv.org. 96 Google engineers. ~21% speed improvement, not statistically significant (95% CI: [-0.51, 0.03]). 

  11. Begum Karaci Deniz et al., “Unleashing Developer Productivity with Generative AI,” McKinsey, June 27, 2023, mckinsey.com. 40 McKinsey developers. Gains of 35-50% on simple tasks; less than 10% on high-complexity tasks. Junior developers 7-10% slower. 

  12. Neely Dunlap, “The AI Productivity Paradox Research Report,” Faros AI (a DevOps analytics vendor), July 23, 2025 (updated January 8, 2026), faros.ai. 10,000+ developers across 1,255 teams. AI-assisted PRs: 9% more bugs, 91% longer reviews, 154% larger. Developers complete 21% more tasks and merge 98% more PRs. 

  13. Neil Perry, Megha Srivastava, Deepak Kumar, and Dan Boneh, “Do Users Write More Insecure Code with AI Assistants?” in CCS ‘23: Proceedings of the 2023 ACM SIGSAC Conference, November 2023, arxiv.org. 47 participants. AI-assisted group wrote insecure solutions more often in 4 of 5 tasks. SQL injection vulnerability: 36% AI group vs. 7% control. 

  14. William Harding and Matthew Kloster, “Coding on Copilot: 2023 Data Suggests Downward Pressure on Code Quality,” GitClear (a code analytics vendor), January 2024, gitclear.com. 153 million changed lines of code analyzed. Code churn projected to double in 2024 compared to 2021 pre-AI baseline. 

  15. Author’s analysis. Hook system described in “Anatomy of a Claw: 84 Hooks as an Orchestration Layer.” Output firewall described in “The Fabrication Firewall.” Context injection described in “Context Is Architecture.” Quality system described in “Jiro Quality Philosophy.” Verified counts: 84 hooks (35 judgment, 44 automation), 43 skills, 19 agents, 30+ library modules, ~15,000 lines of code. Semantic code search: 4,518 chunks indexed across 653 files. Persistent memory: 49,746 chunks across 15,800 files. 

  16. McKinsey, “Unlocking the Value of AI in Software Development,” November 3, 2025, mckinsey.com. Nearly 300 publicly traded companies. Highest performers: 16-30% productivity, 31-45% quality improvement. Companies with 80-100% developer adoption saw gains of 110%+. 

  17. Andrej Karpathy, post on X, February 4, 2026. “Many people have tried to come up with a better name…my current favourite: ‘agentic engineering.’ ‘Agentic’ because the new default is that you are not writing the code directly 99% of the time, you are orchestrating agents who do and acting as oversight.” 

Powiązane artykuły

Anthropic Measured What Works. My Hooks Enforce It.

Anthropic analyzed 9,830 conversations. Iterative refinement doubles fluency markers. Polished outputs suppress evaluati…

14 min czytania

What Actually Breaks When You Run AI Agents Unsupervised

Seven named failure modes from 500+ autonomous agent sessions. Each has a detection signal, a real example, and a concre…

16 min czytania

Context Window Management: What 50 Sessions Taught Me About AI Development

I measured token consumption across 50 Claude Code sessions. Context exhaustion degrades output before you notice. Here …

6 min czytania