← Tous les articles

Le mur des 10 % : pourquoi la productivité de l'IA plafonne

From the guide: Claude Code Comprehensive Guide

DX a interrogé 121 000 développeurs dans 450 entreprises. 92,6 % utilisent des assistants de codage IA au moins une fois par mois. Le code généré par l’IA représente désormais 26,9 % des fusions en production. Les développeurs déclarent gagner environ quatre heures par semaine.1 La productivité n’a pas dépassé les 10 %.

Ce chiffre est resté stable pendant trois trimestres consécutifs.1 2 L’adoption a grimpé. Le volume de code a grimpé. Les outils se sont améliorés. Les gains, non. Laura Tacho, CTO chez DX, a formulé le constat sans détour : « C’est vraiment un problème de management. Le battage médiatique a laissé croire qu’il suffisait d’essayer l’IA pour que les bénéfices arrivent automatiquement. »3

Le rapport DORA 2025 a mis en évidence la divergence. Les organisations dotées de pratiques d’ingénierie solides ont vu l’IA amplifier leurs forces existantes. Les organisations aux pratiques défaillantes ont vu l’IA amplifier leurs dysfonctionnements existants. Mêmes outils. Résultats opposés. Le rapport concluait : « Le rôle principal de l’IA dans le développement logiciel est celui d’un amplificateur. Elle amplifie les forces des organisations performantes et les dysfonctionnements de celles qui peinent. »4

Le mur n’est pas un problème de modèle. C’est un problème d’infrastructure. De meilleurs modèles ne franchiront pas un mur bâti sur l’absence de vérification, l’absence de contexte et l’absence de gouvernance. Les articles complémentaires à celui-ci décrivent l’architecture : Anatomy of a Claw explique la couche d’orchestration, The Fabrication Firewall explique la porte de sortie des résultats, et Context Is Architecture explique le système d’injection de contexte. L’article ci-dessous explique pourquoi ces systèmes existent.

En bref

121 000 développeurs interrogés, 92,6 % d’adoption, productivité bloquée à 10 %. Trois causes profondes expliquent ce plafond : la famine contextuelle (l’IA devine faute de connaissance du projet), le vide de vérification (le code est livré plus vite que la revue ne s’adapte) et le déficit de gouvernance (l’IA contourne les standards que les humains appliquent). DORA a constaté que l’IA amplifie aussi bien les forces que les dysfonctionnements selon l’infrastructure qui l’entoure.4 Percer le mur exige une infrastructure autour de l’IA, pas une meilleure IA. Cet article documente une tentative N=1 de construction de cette infrastructure, avec des chiffres concrets issus d’un système exécutant 84 hooks, 43 skills et 19 agents.


Ce que révèle l’enquête

Le jeu de données DX couvre 4,2 millions de développeurs observés entre novembre 2025 et février 2026, avec un panel détaillé de 121 000 développeurs dans 450 entreprises.1 Les chiffres racontent deux histoires.

L’histoire de l’adoption est sans ambiguïté. Les assistants de codage IA ont atteint une pénétration quasi universelle. DX a mesuré 92,6 % d’adoption mensuelle et environ 75 % d’utilisation hebdomadaire.1 L’enquête Stack Overflow 2025 a révélé que 84 % des développeurs utilisent ou prévoient d’utiliser des outils d’IA.6 JetBrains a mesuré 85 % d’utilisation régulière auprès de 24 534 développeurs dans 194 pays.7 Le plafond d’adoption est proche.

L’histoire de la productivité a calé. DX a mesuré en moyenne quatre heures gagnées par semaine, inchangé par rapport aux 3,6 heures du trimestre précédent.1 2 Le code généré par l’IA est passé de 22 % à 26,9 % du code fusionné, mais le volume supplémentaire ne s’est pas traduit par une production supplémentaire.1 2 Laura Tacho a posé le calcul : les développeurs consacrent environ 20 % de leur temps à écrire du code. Une amélioration de 10 % sur 20 % de la journée de travail représente une amélioration globale de 2 %. « La vitesse de frappe n’a jamais été le goulot d’étranglement. »8

Métrique Évolution Source
Adoption de l’IA (mensuelle) 92,6 % DX T1 20261
Code généré par l’IA 22 % à 26,9 % DX T4 2025 à T1 20261 2
Heures gagnées par semaine 3,6 à ~4 DX T4 2025 à T1 20261 2
Gain de productivité ~10 % (inchangé) DX T1 20261
Confiance dans la précision de l’IA 43 % à 29 % (confiance combinée) Stack Overflow 2024 à 20256
Stabilité des livraisons -7,2 % par tranche de 25 % d’adoption de l’IA DORA 20245

La ligne critique est la dernière. Le rapport DORA 2024 a interrogé 39 000 professionnels et a constaté que pour chaque augmentation de 25 % de l’adoption de l’IA, le débit de livraison diminuait d’environ 1,5 % et la stabilité des livraisons de 7,2 %.5 Le rapport DORA 2025 a observé que la relation IA-débit est passée de la corrélation négative de 2024 à une corrélation positive, mais la stabilité des livraisons restait négativement associée à l’adoption de l’IA.4 L’adoption de l’IA continuait de corréler avec une instabilité accrue même lorsque le débit s’améliorait.

La divergence compte plus que les moyennes. METR a étudié 16 développeurs open source expérimentés travaillant sur 246 problèmes réels de dépôts et a constaté qu’ils mettaient 19 % plus de temps avec les outils d’IA que sans.9 L’essai contrôlé randomisé de Google portant sur 96 ingénieurs a révélé une amélioration de la vitesse de 21 %, mais le résultat n’était pas statistiquement significatif (IC à 95 % traversant zéro).10

McKinsey a trouvé des gains de 35 à 50 % sur les tâches simples mais moins de 10 % sur les tâches à haute complexité, et les développeurs juniors utilisant l’IA étaient 7 à 10 % plus lents dans une étude portant sur 40 de ses propres développeurs.11 Le schéma : l’IA accélère les aspects du développement qui n’ont jamais constitué le goulot d’étranglement.

Les entreprises qui ont percé le mur n’utilisaient pas de meilleurs modèles. Elles ont construit une infrastructure qui rattrapait ce que les modèles manquaient.


Pourquoi le mur existe

Trois causes profondes expliquent le plateau. Chacune opère indépendamment. Ensemble, elles forment un plafond que de meilleurs modèles ne peuvent pas percer.

La famine contextuelle

Les assistants de codage IA opèrent sur le code visible dans le fichier courant et le contexte qui tient dans la fenêtre de prompt. Ils ne connaissent pas vos décisions architecturales, vos contrats d’API, vos contraintes de déploiement ni les conventions de nommage de votre équipe, à moins que quelqu’un n’injecte ces informations.

Sans contexte spécifique au projet, le modèle devine. Il hallucine des chemins de fichiers qui suivent des conventions plausibles mais qui n’existent pas. Il génère des appels API vers des endpoints qui correspondent à des patterns courants mais pas aux vôtres. Il suggère des imports de packages que votre projet n’utilise pas.12

Faros AI a analysé la télémétrie de 10 000 développeurs dans 1 255 équipes et a constaté que les pull requests assistées par l’IA sont 154 % plus volumineuses que celles non assistées.12 Des PR plus volumineuses présentent une surface d’exposition plus grande aux erreurs dépendantes du contexte. L’IA génère du code avec assurance. Le code compile. Le code ne tient pas compte de la contrainte documentée dans une page Confluence que l’IA n’a jamais vue.

Ce comportement n’est pas un problème d’hallucination au sens de la sécurité des modèles. Le modèle fait exactement ce pour quoi il est conçu : prédire le code probable en fonction du contexte disponible. Le problème est que le contexte disponible exclut la majeure partie de ce qui compte pour la justesse dans un codebase spécifique.

Le vide de vérification

L’IA génère du code plus vite que les processus de revue existants ne peuvent l’absorber. Faros a constaté que les PR assistées par l’IA prennent 91 % plus de temps à examiner.12 Les développeurs accomplissent 21 % de tâches supplémentaires et fusionnent 98 % de pull requests en plus, mais le pipeline de revue est dimensionné pour un débit humain.12

L’étude de Stanford sur le code non sécurisé a quantifié la dimension sécurité. Les chercheurs ont confié à 47 développeurs des tâches de codage avec et sans assistance IA. Le groupe assisté par l’IA a écrit des solutions non sécurisées plus souvent dans quatre tâches sur cinq. Sur la tâche d’injection SQL, 36 % du groupe IA a écrit du code vulnérable contre 7 % du groupe témoin. Les participants assistés par l’IA étaient plus enclins à croire qu’ils avaient écrit du code sécurisé alors que ce n’était pas le cas.13 La combinaison d’une production plus rapide et d’une fausse confiance accrue crée un fossé de vérification que la revue manuelle ne peut pas combler à grande échelle.

GitClear a analysé 153 millions de lignes de code modifiées et a constaté que le taux de remaniement du code (code réécrit dans les deux semaines suivant son écriture) devrait doubler en 2024 par rapport aux niveaux de référence pré-IA.14 L’augmentation du volume due aux outils d’IA crée du travail de reprise qui annule partiellement les gains de productivité. L’enquête Stack Overflow 2025 confirme la friction : 66 % des développeurs déclarent passer plus de temps à corriger du code « presque juste » généré par l’IA.6

Le déficit de gouvernance

Le code généré par l’IA contourne les mécanismes de gouvernance que les développeurs humains ont intériorisés. Un développeur senior sait qu’il faut vérifier le guide de style, exécuter le linter, mettre à jour le changelog et informer le responsable technique des changements d’architecture. Un assistant IA génère une solution qui satisfait le prompt. L’écart entre « compile et passe les tests » et « répond aux standards organisationnels » constitue la gouvernance.

Les chercheurs de McKinsey ont attribué le ralentissement des développeurs juniors à l’écart entre le code généré et le contexte organisationnel. Les développeurs juniors n’ont pas le recul nécessaire pour évaluer si le résultat de l’IA respecte des standards qu’ils n’ont pas encore intériorisés. Sans infrastructure de gouvernance encodant ces standards sous forme de vérifications automatisées, le résultat de l’IA se propage en aval sans contrôle.

Le déficit de gouvernance se cumule entre les équipes. L’utilitaire généré par l’IA d’un développeur duplique le module existant d’un autre développeur. Deux endpoints générés par l’IA utilisent des formats d’erreur différents pour la même API. Les migrations générées par l’IA suivent une convention de nommage différente du standard de l’équipe. Chaque violation est minime. L’effet cumulé est un codebase qui s’éloigne de ses propres conventions plus vite que la revue ne peut le corriger.


Ce qu’il y a de l’autre côté du mur

La conclusion du DORA décrit deux populations utilisant des outils identiques. Les organisations dotées de pratiques solides ont vu l’IA amplifier leurs forces. Les organisations aux pratiques défaillantes ont vu l’IA amplifier leurs dysfonctionnements.4 La variable qui les distingue n’est pas l’IA qu’elles utilisent. C’est l’infrastructure autour de l’IA.

Chaque cause profonde correspond à une solution d’infrastructure. Le tableau ci-dessous trace la chaîne du problème à la solution, avec une implémentation concrète issue d’un système que j’ai construit et documenté dans les articles complémentaires. L’exemple est une tentative avec des chiffres précis, pas une prescription universelle.

Cause profonde Ce qui dysfonctionne Solution d’infrastructure Implémentation
Famine contextuelle Chemins hallucinés, APIs erronées, contraintes manquantes Injection de contexte au moment du prompt 9 hooks sur chaque prompt injectent la date, la branche, la documentation projet et le contexte architectural15 (architecture détaillée)
Vide de vérification Les bugs sont livrés plus vite que la revue ne les détecte Exécution indépendante des tests, revue automatisée Boucle autonome Ralph : un test runner vérifie chaque modification, puis 3 agents de revue indépendants (justesse, sécurité, conventions) évaluent avant la fusion15 (système complet)
Déficit de gouvernance Standards contournés, conventions qui dérivent Portes de qualité automatisées avec exigences de preuve Evidence Gate : 6 critères avec preuves requises, 7 modes de défaillance nommés, détection du langage évasif15 (philosophie qualité)

L’injection de contexte répond à la famine en s’assurant que le modèle reçoit les informations spécifiques au projet à chaque prompt. Un hook de dispatching déclenche neuf gestionnaires séquentiels qui injectent la date du jour, la branche Git, le répertoire de travail, les conventions du projet, le contexte de la tâche en cours et les contraintes architecturales. Le modèle reçoit 200 à 400 tokens de contexte d’ancrage avant de traiter la requête de l’utilisateur. Latence mesurée : 200 ms au total pour les neuf hooks. Le modèle cesse de deviner les chemins de fichiers parce qu’on lui a communiqué les chemins réels.15

La vérification indépendante comble le vide en retirant les humains du goulot d’étranglement de la vérification pour les contrôles de routine. La boucle de développement autonome (documentée dans Anatomy of a Claw) génère du code, exécute la suite de tests complète et soumet les résultats à trois agents de revue qui opèrent indépendamment. L’agent d’implémentation ne revoit jamais son propre résultat. Cette séparation reflète la conclusion de l’étude de Stanford selon laquelle le groupe assisté par l’IA était plus confiant dans du code non sécurisé : l’auto-vérification est peu fiable, que l’auteur soit humain ou artificiel.13

La gouvernance automatisée comble le déficit en encodant les standards d’équipe sous forme de vérifications exécutables. Le Fabrication Firewall classifie chaque action sortante comme locale, partagée ou externe, en différant la publication externe à la revue humaine. Les portes de qualité bloquent les rapports de complétion qui utilisent un langage évasif (« devrait fonctionner », « semble correct ») au lieu de citer les résultats de tests et les chemins de fichiers. Le système applique les standards que les développeurs humains appliqueraient s’ils avaient le temps de relire chaque ligne. À la vitesse de génération de l’IA, ce n’est pas le cas.

Le système combiné produit des résultats mesurables sur son propre codebase : 4 518 fragments de code indexés pour la recherche sémantique, 49 746 fragments de vault répartis dans 15 800 fichiers pour la mémoire persistante, et une suite de tests qui s’exécute automatiquement avant que tout changement ne soit signalé comme terminé.15 Ces chiffres décrivent l’infrastructure d’un seul développeur. Ils ne peuvent pas prouver que l’approche se généralise. Ils peuvent démontrer que le mur est perméable avec les bons outils de l’autre côté.


Le ratio de gouvernance

Le système de hooks décrit dans Anatomy of a Claw contient 84 hooks. Un décompte vérifié les répartit par fonction : 35 hooks de jugement qui décident si quelque chose doit se produire, 44 hooks d’automatisation qui exécutent des actions prédéterminées, et 5 hooks utilitaires (dispatchers, gestion d’état). Le ratio de gouvernance est de 4:5. Il a démarré à 1:6.15

Le ratio initial reflète ce que la plupart des équipes construisent en premier : l’automatisation. Injecter du contexte. Enregistrer des métriques. Formater les sorties. Journaliser l’utilisation. Ces hooks capturent les 10 % que tout le monde obtient. Ils automatisent les aspects mécaniques du développement qui étaient déjà partiellement automatisés avant l’IA. Les données de DX le confirment : les quatre heures gagnées par semaine proviennent de la génération de code et de la réduction du code passe-partout, des tâches qui étaient déjà les plus rapides du cycle de développement.1

Le virage vers les hooks de jugement reflète d’où proviennent les gains supplémentaires.

Investissement Ce qu’il capture Étape
Hooks d’automatisation (injection, journalisation, formatage) Les premiers 10 % Base d’adoption
Hooks de jugement (vérification, portes, revue) Les 10 à 30 % suivants Percée du mur
Intégration organisationnelle (workflow, boucles de feedback) Les gains composés Amélioration continue

L’enquête McKinsey 2025 portant sur près de 300 entreprises cotées en bourse a révélé que les plus performantes constataient des améliorations de productivité de 16 à 30 % et des améliorations de qualité de 31 à 45 %.16 Ces organisations affichaient une adoption développeur de 80 à 100 % combinée à une intégration organisationnelle. Le facteur différenciant n’était pas le taux d’adoption (qui corrèle avec 10 % de gains dans tous les cas) mais l’infrastructure et les processus construits autour de cette adoption.

Le cadrage de Laura Tacho s’applique ici : « Je suis sceptique quant à la promesse de toute technologie d’améliorer les performances sans s’attaquer à ces contraintes sous-jacentes. »3 Les contraintes sous-jacentes sont des contraintes de jugement. Ce code respecte-t-il nos standards ? Ce changement casse-t-il quelque chose en aval ? Ce résultat contient-il une fabrication ? Les hooks d’automatisation ne peuvent pas répondre à ces questions. Les hooks de jugement le peuvent, imparfaitement, en encodant les critères que les développeurs expérimentés appliquent mentalement.

Le ratio n’a pas encore atteint la parité. Le système automatise encore plus qu’il ne gouverne. Ce déséquilibre est en soi un diagnostic : toute couche d’orchestration où les hooks d’automatisation surpassent en nombre les hooks de jugement a une marge de progression.


Ce que vous devez réellement construire

Le système décrit dans les articles complémentaires compte 84 hooks, 43 skills, 19 agents et 15 000 lignes d’infrastructure.15 Vous n’avez pas besoin de 15 000 lignes. Vous avez besoin de trois choses.

Un hook d’injection de contexte. Cinq lignes de bash qui injectent la date du jour, la branche et le répertoire de travail dans chaque prompt IA. L’injection élimine toute une catégorie d’hallucinations : le modèle cesse d’inventer des chemins de fichiers et des noms de branches parce qu’il dispose des vrais.

#!/bin/bash
# inject-context.sh — minimum viable context injection
echo "Date: $(date +%Y-%m-%d)"
echo "Branch: $(git branch --show-current 2>/dev/null || echo 'not a git repo')"
echo "Directory: $(pwd)"

Une porte de qualité. Quinze lignes qui recherchent dans les rapports de complétion un langage évasif. Si l’agent dit « devrait fonctionner » au lieu de citer les résultats de tests, la porte bloque. La porte comble le vide de vérification au point d’entrée le moins coûteux.15

#!/bin/bash
# quality-gate.sh — minimum viable verification
INPUT=$(cat)
HEDGES=$(echo "$INPUT" | grep -ciE '\bshould (work|pass|be fine)\b|\bprobably\b|\blooks correct\b')
if [ "$HEDGES" -gt 0 ]; then
  echo '{"decision":"block","reason":"Hedging language detected. Cite test output instead."}'
else
  echo '{"decision":"allow"}'
fi

Un test runner indépendant. Un hook qui exécute la suite de tests du projet après chaque modification de code et échoue bruyamment si les tests cassent. L’implémentation varie selon le projet. Le principe, non : l’agent qui écrit le code ne doit pas être le seul juge de ce code.

Commencez par ce qui casse le plus dans votre workflow. Si votre IA hallucine des chemins de fichiers, construisez d’abord le hook de contexte. Si votre IA livre du code non testé, construisez d’abord le test runner. Si votre IA écrit « terminé » sans preuve, construisez d’abord la porte de qualité.

Karpathy a décrit l’évolution du vibe coding vers l’ingénierie agentique : « orchestrer des agents qui font [le travail] et agir en tant que supervision. »17 Les trois hooks ci-dessus constituent la supervision minimale viable. Ils ne produiront pas des gains de 30 %. Ils vous feront passer de 10 % vers 15 %, et chacun que vous ajoutez révèle la prochaine contrainte à traiter.

Le mur est réel. Il est aussi spécifique. Famine contextuelle, vide de vérification et déficit de gouvernance sont des problèmes d’ingénierie avec des solutions d’ingénierie. Les modèles continueront de s’améliorer. Le mur restera à 10 % pour toute équipe qui traite l’IA comme un générateur de code plutôt que comme un système nécessitant une infrastructure pour gouverner ses résultats.


Points clés à retenir

Pour les développeurs individuels. Commencez par un hook d’injection de contexte. Cinq lignes de bash qui injectent la date, la branche et le répertoire de travail éliminent toute une catégorie d’hallucinations de l’IA. Le mur commence à céder quand le modèle connaît vos vrais chemins de fichiers au lieu de les deviner.

Pour les responsables d’équipe. Mesurez votre ratio de gouvernance : combien de vos hooks IA vérifient les résultats versus automatisent des tâches. Si les hooks d’automatisation surpassent en nombre les hooks de jugement, votre équipe ne capture que les premiers 10 %. Les données de DX confirment que les quatre heures gagnées par semaine proviennent de la génération de code, des tâches qui étaient déjà les plus rapides du cycle de développement.1

Pour les ingénieurs plateforme. Construisez la couche de vérification avant de passer l’adoption de l’IA à l’échelle. DORA a constaté que les organisations déployant l’IA sans infrastructure d’ingénierie voyaient l’instabilité croître avec l’adoption.4 5 Les trois causes profondes correspondent à trois solutions d’infrastructure. Commencez par celle qui génère le plus de friction dans votre pipeline.


Sources


  1. Ivan Brezak Brkan, “This CTO Says 93% of Developers Use AI – but Productivity Is Still ~10%,” ShiftMag, February 18, 2026, shiftmag.dev. Data from DX (a developer analytics company), based on 121,000+ developers across 450+ companies and a broader pool of 4.2 million developers observed November 2025 to February 2026. 

  2. Laura Tacho, “AI-Assisted Engineering: Q4 Impact Report,” DX, November 4, 2025, getdx.com. Data from 135,000+ developers across 435 companies, July to October 2025. 

  3. Laura Tacho, quoted in Brkan, “This CTO Says 93% of Developers Use AI.” Full quote: “This is really a management problem. The hype made it sound like just trying AI would automatically pay off.” 

  4. DORA, Accelerate State of AI-assisted Software Development 2025, Google, September 29, 2025, dora.dev. Nearly 5,000 technology professionals surveyed. Key finding: “AI’s primary role in software development is that of an amplifier.” 

  5. DORA, Accelerate State of DevOps Report 2024, Google, October 2024, dora.dev. 39,000+ professionals surveyed. For every 25% increase in AI adoption: estimated 1.5% decrease in delivery throughput, 7.2% decrease in delivery stability. 

  6. Stack Overflow, 2025 Developer Survey, July 29, 2025, survey.stackoverflow.co. 49,000+ total respondents from 177 countries. Combined trust declined from 43% (2024) to 29% (2025). Nearly 46% actively distrust AI accuracy (26.1% somewhat + 19.6% highly). 66% report spending more time fixing “almost-right” AI-generated code. 

  7. JetBrains, State of Developer Ecosystem 2025, October 2025, blog.jetbrains.com. 24,534 developers across 194 countries. 85% regular AI tool usage; 23% cite code quality as top concern. 

  8. Laura Tacho, interviewed by Gergely Orosz, “Measuring the Impact of AI on Software Engineering,” Pragmatic Engineer, July 23, 2025, newsletter.pragmaticengineer.com. “Typing speed has never been the bottleneck.” 

  9. Joel Becker, Nate Rush, Elizabeth Barnes, and David Rein, “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity,” METR, July 10, 2025, metr.org. 16 experienced developers, 246 real repository issues. Developers took 19% longer with AI tools. 

  10. Elise Paradis et al., “How Much Does AI Impact Development Speed? An Enterprise-Based Randomized Controlled Trial,” arXiv preprint, October 16, 2024, arxiv.org. 96 Google engineers. ~21% speed improvement, not statistically significant (95% CI: [-0.51, 0.03]). 

  11. Begum Karaci Deniz et al., “Unleashing Developer Productivity with Generative AI,” McKinsey, June 27, 2023, mckinsey.com. 40 McKinsey developers. Gains of 35-50% on simple tasks; less than 10% on high-complexity tasks. Junior developers 7-10% slower. 

  12. Neely Dunlap, “The AI Productivity Paradox Research Report,” Faros AI (a DevOps analytics vendor), July 23, 2025 (updated January 8, 2026), faros.ai. 10,000+ developers across 1,255 teams. AI-assisted PRs: 9% more bugs, 91% longer reviews, 154% larger. Developers complete 21% more tasks and merge 98% more PRs. 

  13. Neil Perry, Megha Srivastava, Deepak Kumar, and Dan Boneh, “Do Users Write More Insecure Code with AI Assistants?” in CCS ‘23: Proceedings of the 2023 ACM SIGSAC Conference, November 2023, arxiv.org. 47 participants. AI-assisted group wrote insecure solutions more often in 4 of 5 tasks. SQL injection vulnerability: 36% AI group vs. 7% control. 

  14. William Harding and Matthew Kloster, “Coding on Copilot: 2023 Data Suggests Downward Pressure on Code Quality,” GitClear (a code analytics vendor), January 2024, gitclear.com. 153 million changed lines of code analyzed. Code churn projected to double in 2024 compared to 2021 pre-AI baseline. 

  15. Author’s analysis. Hook system described in “Anatomy of a Claw: 84 Hooks as an Orchestration Layer.” Output firewall described in “The Fabrication Firewall.” Context injection described in “Context Is Architecture.” Quality system described in “Jiro Quality Philosophy.” Verified counts: 84 hooks (35 judgment, 44 automation), 43 skills, 19 agents, 30+ library modules, ~15,000 lines of code. Semantic code search: 4,518 chunks indexed across 653 files. Persistent memory: 49,746 chunks across 15,800 files. 

  16. McKinsey, “Unlocking the Value of AI in Software Development,” November 3, 2025, mckinsey.com. Nearly 300 publicly traded companies. Highest performers: 16-30% productivity, 31-45% quality improvement. Companies with 80-100% developer adoption saw gains of 110%+. 

  17. Andrej Karpathy, post on X, February 4, 2026. “Many people have tried to come up with a better name…my current favourite: ‘agentic engineering.’ ‘Agentic’ because the new default is that you are not writing the code directly 99% of the time, you are orchestrating agents who do and acting as oversight.” 

Articles connexes

Anthropic Measured What Works. My Hooks Enforce It.

Anthropic analyzed 9,830 conversations. Iterative refinement doubles fluency markers. Polished outputs suppress evaluati…

14 min de lecture

What Actually Breaks When You Run AI Agents Unsupervised

Seven named failure modes from 500+ autonomous agent sessions. Each has a detection signal, a real example, and a concre…

16 min de lecture

Context Window Management: What 50 Sessions Taught Me About AI Development

I measured token consumption across 50 Claude Code sessions. Context exhaustion degrades output before you notice. Here …

6 min de lecture