← Wszystkie wpisy

Warstwa porządkowa to prawdziwy rynek agentów AI

Trzy dni temu Charlie Labs opublikowało Show HN z jednym z najczystszych komunikatów o zmianie kierunku, jakie czytałem w tym roku: „Zmieniliśmy kierunek z budowania agentów na sprzątanie po nich.”1 Ich założyciel spędził blisko dwa lata na budowaniu chmurowego agenta kodującego TypeScript. Zamknął go, ponieważ intensywne wykorzystanie agentów generowało więcej PR-ów, więcej dryfu, więcej przestarzałych zależności i więcej niedokończonych prac konserwacyjnych, niż jego zespół był w stanie nadążyć. Nowy produkt, Daemons, to format konfiguracji dla cyklicznych ról konserwacyjnych zdefiniowanych w plikach .agents/daemons/<id>/DAEMON.md, które ciągle segregują błędy, aktualizują dokumentację, monitorują konflikty scaleń i przeglądają zaległe PR-y.2

Sposób ujęcia tej zmiany kierunku to prawdziwy sygnał. Nie „zbudowaliśmy lepszych agentów”. „Agenci tworzą pracę. Daemony ją utrzymują.”2

To zdanie nazywa rynek, w który wpada również reszta branży, i wyjaśnia, dlaczego mój własny system produkcyjny wygląda tak, jak wygląda. Trwały rynek agentów AI to nie warstwa, która generuje pracę. To warstwa, która udowadnia, że praca jest poprawna, ograniczona, odwracalna i warta podpisania. Generowanie staje się towarem wewnątrz APIów modeli. Dowód to warstwa trwała, ponieważ to za niego płaci każdy klient z rachunkiem zysków i strat.

TL;DR

  • Charlie Labs publicznie zmieniło kierunek z agenta kodującego na produkt porządkowy, ponieważ agenci tworzą dług operacyjny szybciej, niż go spłacają.
  • Wzorzec nie jest wyjątkowy: InsightFinder pozyskał 15 mln USD na „gdzie agenci AI się mylą” 16 kwietnia, a Palo Alto Networks zapłaciło 3,35 mld USD za Chronosphere w listopadzie. Warstwa dowodu konsoliduje się.
  • 57% organizacji uruchamia teraz agentów na produkcji; 69% decyzji agentów nadal wymaga weryfikacji człowieka. Luka weryfikacyjna to rynek.
  • Mój własny licznik haków-blizn wzrósł z 84 do 123 w ciągu 26 dni. Żaden z tych haków nie generuje; wszystkie udowadniają.
  • Generowanie to korpus pracy. Dowód to tył szafy, i tam właśnie znajduje się trwała marża.

Wzorzec, w którym znajduje się Charlie Labs

Charlie Labs nie jest jedyną firmą, która po cichu przekształca swoją kategorię w tym kwartale. W tym samym tygodniu co ogłoszenie Daemons:

  • InsightFinder pozyskał rundę B w wysokości 15 mln USD 16 kwietnia, prezentowaną konkretnie jako „gdzie agenci AI się mylą”: wykrywanie anomalii plus diagnostyka przyczyn źródłowych plus zautomatyzowana naprawa incydentów wywołanych przez agentów.3
  • Sonarly (YC W26) dostarcza produkcyjną segregację alertów, RCA i naprawcze PR-y, które działają na bazie Sentry, Datadog i Grafana — agentów, którzy czytają poincydentowe szczątki i je porządkują.4
  • Cekura (YC F24) zajmuje się zautomatyzowanym testowaniem, monitorowaniem i symulacją dla agentów głosowych i czatowych: zapewnienie jakości jako cyklicznego runtime, a nie jako kamienia milowego przed uruchomieniem.5
  • Langfuse, Arize Phoenix, Braintrust, Datadog LLM Observability i Fiddler ścigają się o pozycję płaszczyzny śledzenia i ewaluacji dla runtime’ów agentów.678910
  • Lakera Guard i Fiddler Guardrails komercjalizują kontrolę runtime: blokowanie wstrzyknięć promptów, wykrywanie nadużyć narzędzi, egzekwowanie polityk.1112
  • Palo Alto Networks zapłaciło 3,35 mld USD za Chronosphere w listopadzie, aby uzyskać obserwowalność w stosie bezpieczeństwa wyprzedzając falę agentów.13

Powyższe firmy sprzedają różne powierzchnie (alerty, ewaluacje, śledzenie, runtime’owe poręcze ochronne, konserwacja na poziomie kodu), ale wszystkie żyją poniżej jednego faktu: wynik agenta nie może być wysłany na produkcję wyłącznie na jego słowo. Ktoś, lub jakiś inny element oprogramowania, musi potwierdzić, że praca odbyła się tak, jak twierdzi raport. Tym kimś jest warstwa dowodu, a warstwa dowodu to ta część stosu agenta, która już dziś generuje przychód.

Sformułowanie Charlie’ego to najczystszy sposób, by to wyrazić: agenci tworzą zobowiązania dowodowe szybciej, niż tworzą gotową pracę. Zobowiązanie dowodowe to jednostka, za którą klient płaci. Agent, który je tworzy, staje się coraz tańszy lub darmowy, ponieważ laboratoria fundamentowe subsydiują go jako funkcję modelu.

Luka weryfikacyjna w liczbach

Niedawna synteza rynku zgadza się z anegdotami założycieli. Trzy liczby wykonują większość pracy w tej tezie:

  • 57% organizacji uruchamia teraz agentów AI na produkcji, w porównaniu z 51% w poprzednim roku.14
  • 72% projektów AI w przedsiębiorstwach obejmuje architektury wieloagentowe, w porównaniu z 23% w 2024 roku.14
  • 69% decyzji wspieranych przez AI nadal wymaga weryfikacji człowieka przed wdrożeniem. 32% zespołów wskazuje jakość jako główną barierę dla wdrożenia produkcyjnego.14

Pierwsze dwie liczby opisują powierzchnię wdrożenia agentów. Trzecia opisuje pułap przepustowości. Klienci uruchamiający 100 decyzji agentów dziennie nadal wykonują 69 weryfikacji ręcznie, ponieważ leżące u ich podstaw narzędzia nie zamykają pętli. Każdy produkt z powyższej listy warstwy dowodu to klin wbity w te 69%.

Przekładając lukę na język zakupowy, teza pisze się sama. Kupujący z budżetem X USD na „agentów AI” może go wydać na generowanie (więcej agentów, szybciej) lub na dowód (mniej fałszywych alarmów, więcej autonomicznych decyzji, mniej człowieka w pętli). Krańcowy dolar generowania kupuje malejące zwroty, gdy kolejka weryfikacyjna jest pełna. Krańcowy dolar dowodu odblokowuje kolejkę. Tam właśnie przemieszcza się budżet, dlatego Sonarly, Cekura, InsightFinder, Charlie Labs i instytucjonalne firmy obserwowalności zasysają powietrze z pomieszczenia.

Mój system produkcyjny to ten sam wzorzec, w mniejszej skali

Byłem po stronie dowodu tego rynku od pierwszego dnia, gdy uruchomiłem agenta na produkcji. Po prostu nie miałem na to nazwy. Najbliższym artefaktem strony generowania, który dostarczam, jest pojedynczy raport z ukończenia. Artefakty strony porządkowej są wszędzie.

Migawka mojego orkiestratora haków-blizn z 24 kwietnia 2026 roku:15

  • 123 pliki haków na dysku, w porównaniu z 84 z 29 marca, wzrost o 47% w ciągu 26 dni. Każdy nowy hak to strażnik dodany w odpowiedzi na konkretną awarię produkcyjną.
  • 88 umiejętności w rejestrze, ograniczone zakresem pakiety zadań, które ograniczają to, co agent może robić.
  • 26 wierszy dopasowań haków w 15 typach zdarzeń cyklu życia w ~/.claude/settings.json.
  • Weryfikacja-fantom spadła z 12% sesji do poniżej 2% po wprowadzeniu haka wykrywającego asekuracyjny język.16
  • Cztery nazwane tryby awarii w kształcie odpowiedzi: weryfikacja-fantom, zniekształcona scenografia narzędzi, pominięta zależność, pranie podsumowań.16
  • Dwa CVE obejścia dialogu zaufania w 37 dni (CVE-2026-33068, CVE-2026-40068). Oba wymagały audytu po stronie użytkownika, nie tylko łatania przez dostawcę.17

Żaden z tych haków nie generuje pracy. Wszystkie udowadniają (lub odmawiają udowodnienia) pracy, którą wygenerował agent. Liczba blizn rośnie, ponieważ każda nowa zdolność agenta odsłania nowy sposób, w jaki odpowiedź może być kostiumem dla narzędzia, które nigdy się nie uruchomiło. Krzywa wzrostu to dowód tezy rynkowej w małej skali: generowanie powiększa powierzchnię ataku dla dowodu. Dowód musi się składać, by nadążyć.

To ten sam kształt, w który uderzył zespół Charlie’ego w Charlie Labs. Ten sam kształt, który dostawcy obserwowalności ścigają się uchwycić. Problem dowodu nie kończy się na weryfikacji raportu z ukończenia. Obejmuje ujawnienie poświadczeń, operacje destrukcyjne, dryf zadań, jakość wyników, wyczerpanie zasobów, zanieczyszczenie międzyprojektowe i kompromitację zaufania na etapie inicjalizacji.1517 Każda z tych pozycji to osobny wiersz w taksonomii porządkowania, a każdy wiersz wspiera jednego lub dwóch dostawców.

Kontrargument: porządkowanie zawsze było rynkiem

Najmocniejszy zarzut wobec tej tezy brzmi: „stare wino w nowych butelkach”.

Porządkowanie zawsze było rynkiem. SRE, QA, CI, przeglądy kodu, skanowanie bezpieczeństwa, obserwowalność, boty zależności, reagowanie na incydenty: to wszystko dyscypliny warstwy dowodu, które razem stanowią znaczną część wydatków każdej organizacji inżynieryjnej na długo przed pojawieniem się agentów. Agenci nie tworzą tej kategorii. Agenci przyspieszają wolumen.

Ten kontrargument jest poprawny co do kategorii i błędny co do skali. Trzy rzeczy zmieniają się, gdy agenci wchodzą do pętli:

  1. Wolumen. Agent kodujący generuje dziesiątki PR-ów tygodniowo, zamiast dwóch lub trzech od pojedynczego inżyniera. Dokumentacja dryfuje szybciej. Zależności starzeją się szybciej. Kolejka konserwacyjna składa się w tempie agenta, które jest szybsze niż tempo składania kolejek konserwacyjnych prowadzonych przez ludzi.1
  2. Tryby awarii. Cztery awarie w kształcie odpowiedzi nazwane powyżej (weryfikacja-fantom, zniekształcona scenografia narzędzi, pominięta zależność, pranie podsumowań) to nie błędy, do których wykrywania zaprojektowano istniejące stosy CI/QA/obserwowalności. Istniejący stos wykrywa „zestaw testów zwrócił niezerowy kod”. Nie wykrywa „agent pominął zestaw testów i zgłosił sukces”. Każdy tryb awarii wymaga nowej bramki.16
  3. Koszt cofnięcia. Zły PR przesłany przez człowieka jest cofany jednym commitem. Zły PR przesłany przez agenta, w łańcuchu 30 PR-ów, na których inni agenci już budowali, wymaga tygodnia kryminalistyki. Koszt cofnięcia jest tym, co czyni warstwę dowodu nienegocjowalną, a nie miłym dodatkiem.

Kategoria jest stara. Skala jest nowa. Nowa skala finansuje nowych dostawców.

Drugi kontrargument: ryzyko konsolidacji

Drugi najmocniejszy zarzut to ryzyko konsolidacji. Jeśli Anthropic, OpenAI, GitHub i Datadog natywnie wchłoną warstwę dowodu do swoich platform, każdy samodzielny startup porządkowy zostanie ściśnięty. Istnieje realny precedens: Datadog wchłonął startupy APM, GitHub wchłonął Dependabot, Anthropic natywnie dostarcza rusztowanie haków wewnątrz Claude Code.

Argument konsolidacyjny jest realny, ale mniejszy niż się wydaje, ponieważ warstwa dowodu ma strukturalne powody, by żyć poza modelem.

Najważniejszy powód jest tym, który nazywa Repozytorium nie powinno głosować nad własnym zaufaniem: artefakt podlegający ocenie nie może pomagać w podejmowaniu decyzji o zaufaniu.17 Model oceniający własne wyniki to problem audytora wewnętrznego. Klienci kupujący weryfikację o jakości compliance nie zaakceptują dostawcy modelu jako weryfikatora ostatniej instancji. Ten strukturalny argument tworzy przestrzeń dla co najmniej jednego niezależnego dostawcy warstwy dowodu na każdą regulowaną wertykę, niezależnie od tego, jak agresywne są platformy.

Drugi powód to heterogeniczność. Stosy agentów łączą OpenAI, Anthropic, modele wewnętrzne, narzędzia stron trzecich, bazy wektorowe i własne umiejętności. Warstwa dowodu musi obejmować je wszystkie. Natywne dla platformy narzędzie porządkowe pokrywa własną powierzchnię; międzyplatformowe narzędzie dowodowe pokrywa wszystkich. To drugie jest tym, czego faktycznie potrzebuje zaopatrzenie korporacyjne.

Trzeci powód to różnica prędkości. Laboratoria modeli dostarczają funkcje. Warstwa dowodu dostarcza zapobiegnięte incydenty. Inny rytm, inny tryb awarii, inny zespół. Presja konsolidacyjna istnieje, ale powierzchnia dla niezależnych dostawców warstwy dowodu jest na tyle duża, że dwóch lub trzech z nich będzie znaczącymi biznesami niezależnie od tego, co zrobią platformy.

Splot filozofii: Jiro, Steve, MWP

Teza warstwy dowodu to nie tylko stwierdzenie rynkowe. Mapuje się czysto na trzy elementy filozofii, do której wciąż wracam.

Filozofia jakości Jiro nazywa bramkę: twierdzenia o jakości wymagają dowodów, a nie odczuć.18 Warstwa dowodu to bramka w skali całej firmy. Każde RCA Sonarly, każdy ślad Langfuse, każdy daemon Charlie Labs, każdy mój hak-blizna ma ten sam kształt: najpierw dowody, potem werdykt. Narzędzia, które przykręcają werdykt na niezweryfikowanych dowodach, rozpadają się w momencie, gdy spowodują publiczny incydent.

Test Steve’a to bramka jedno piętro wyżej: czy Blake podpisałby się pod tym swoim nazwiskiem?19 W skali organizacji inżynieryjnej pytanie brzmi: czy zespół podpisałby się pod wynikami agenta? Ten podpis wymaga ścieżki audytu, a nie odczucia. Warstwa dowodu jest tym, co wytwarza ścieżkę audytu. Firmy, które dostarczają bez niej, podpisują puste czeki na poczet przyszłych incydentów, a postmortemy tych incydentów wskażą lukę w warstwie dowodu jako przyczynę źródłową.

Minimum Worthy Product zamyka ramę.20 Minimum to ograniczenie zakresu. Worthy to próg jakości. Minimalny produkt agenta to generator. Minimalny worthy produkt agenta to generator plus warstwa dowodu, która sprawia, że jego wynik nadaje się do podpisania. Firmy ścinające warstwę dowodu, by szybciej dostarczyć, wycinają „worthy” z MWP. Rynek koryguje je w czasie rzeczywistym, dlatego Charlie Labs zmieniło kierunek, dlatego InsightFinder pozyskał finansowanie, dlatego Palo Alto Networks zapłaciło 3,35 miliarda za obserwowalność, i dlatego mój licznik haków się składa.

Metafora szafy z Warsztat, który noszę rozszerza się prosto na ten rynek.21 Tył szafy to część, której klient nigdy nie widzi w dobry dzień. To również część, która spektakularnie zawodzi, gdy ktoś wziął skrót tam, gdzie nikt nie patrzył. Warstwa dowodu to tył szafy. Wygrywają firmy, których tył szafy jest wykończony.

Co to zmienia dla operatorów

Trzy praktyczne odczytania, uporządkowane według wpływu.

Wybierz klin warstwy dowodu zanim wybierzesz agenta warstwy generowania. Większość zespołów zaczyna od agenta i dodaje obserwowalność później. Należy odwrócić kolejność. Najpierw wybrać bramki (kody wyjścia, walidację schematu, audyty odczytów plików, wykrywanie dryfu), połączyć je jako jednokierunkowe zależności, i dopiero potem dodać agentów, których wynik przepływa przez nie. Generowanie omijające bramki to zobowiązanie, a nie produktywność.1622

Traktuj liczbę haków-blizn jako wskaźnik wyprzedzający. Jeśli uruchamia się agentów, a liczba blizn nie rośnie, niczego się nie wykrywa. Tempo wzrostu to sygnał audytowy. Moje 47% w 26 dni to nie chwalenie się; to pomiar, że orkiestrator napotyka nowe tryby awarii i je rejestruje. Płaska liczba blizn plus wysoka aktywność agentów to strefa zagrożenia.

Kup lub zbuduj międzyplatformową warstwę dowodu. Oceniając dostawców warstwy dowodu, właściwe pytanie nie brzmi „czy to działa z naszym modelem”, lecz „czy to działa z każdym modelem i stosem narzędzi, który wdrożymy w ciągu najbliższych osiemnastu miesięcy”. Narzędzia dowodowe na pojedynczą platformę mają zły kształt. Kategoria, która wygrywa, jest międzyplatformowa.

Co chciałbym, żeby założyciele zbudowali jako następne

Rynek warstwy dowodu jest na tyle bogaty, by wesprzeć wyspecjalizowane wertykały, których jeszcze nikt nie wypełnił. Zapłaciłbym pieniądze za:

  • Narzędzie wdrożeniowe stawiające na pierwszym miejscu odwracalność, które ocenia każdy PR wygenerowany przez agenta pod kątem tego, jak tanio można cofnąć zmianę, przed scaleniem. Drogie cofnięcia są blokowane lub kierowane do ludzi.
  • Detektor dryfu świadomy taksonomii, który mapuje każdą kategorię haków-blizn na konkretne wzorce testowe i alarmuje, gdy kategoria milczy zbyt długo. Milczące kategorie są tymi niebezpiecznymi.
  • Produkt ścieżki audytu gotowy dla regulatora, który bierze dowolny stos agentów i wytwarza zapis o jakości SOC 2 dla każdego wywołania narzędzia, każdego podpisu, każdej odmowy. Regulowane wertykały kupią to, zanim kupią więcej agentów.

Jeśli budujesz którekolwiek z powyższych, budujesz wewnątrz warstwy dowodu. Rynek przesuwa się w twoją stronę, a nie od ciebie.


Warstwa porządkowa to prawdziwy rynek agentów AI, ponieważ generowanie staje się towarem wewnątrz APIów modeli, a dowód staje się aktywem wycenianym. Charlie Labs nazwało to najczyściej. Finansowane firmy ścigają się, by tam wejść. Generowanie powiększa powierzchnię ataku. Dowód to tył szafy. Wygrywają firmy, których tył szafy jest wykończony.

FAQ

Czy „porządkowanie po agentach” to naprawdę nowa kategoria rynkowa?

Kategoria jest stara. Porządkowanie obejmuje SRE, QA, CI, przeglądy kodu, obserwowalność, skanowanie bezpieczeństwa i reagowanie na incydenty. Nowy jest wolumen i tryby awarii. Agenci kodujący generują dziesiątki PR-ów tygodniowo na stanowisko. Architektury wieloagentowe mnożą tę liczbę. Cztery tryby awarii w kształcie odpowiedzi nazwane w Nagradzaj narzędzie przed odpowiedzią nie są tym, do czego zaprojektowano istniejący stos CI. Kategoria jest stara; skala jest tym, co finansuje nowych dostawców.

Dlaczego Anthropic, OpenAI ani GitHub nie wchłoną warstwy dowodu?

Trzy strukturalne powody. Po pierwsze, oceniany artefakt nie może pomagać w podejmowaniu decyzji o zaufaniu; laboratoria modeli oceniające własne wyniki to problem audytora wewnętrznego. Po drugie, prawdziwe stosy agentów łączą wiele modeli, wiele narzędzi i własne umiejętności, więc warstwa dowodu musi obejmować je wszystkie. Po trzecie, laboratoria modeli dostarczają funkcje w jednym rytmie; warstwa dowodu dostarcza zapobiegnięte incydenty w innym. Presja konsolidacyjna jest realna, ale mniejsza, niż się wydaje.

Które wzorce haków-blizn generalizują poza osobistym orkiestratorem?

Cztery główne bramki: wykrywanie języka asekuracyjnego w raportach z ukończenia, sprawdzanie kodów wyjścia w wywołaniach narzędzi, audyty odczytów plików dopasowujące raporty do dziennika narzędzi oraz wykrywanie dryfu narracyjnego między pierwotnym zadaniem a podsumowaniem. Każda z nich jest bramką jednokierunkową: brakujące dowody narzędziowe blokują ocenę odpowiedzi. Ten sam kształt działa w produkcyjnych stosach obserwowalności; po prostu działa na innych podłożach.

Jak zamyka się luka weryfikacyjna (69% decyzji agentów wymaga przeglądu człowieka)?

Zamyka się przez automatyzację bramek, które obecnie ludzie obsługują na oko. Sprawdzanie kodów wyjścia, walidatory schematu, audyty odczytów plików, wykrywanie dryfu i runtime’owe poręcze ochronne to wszystko przykłady taniego deterministycznego nadzoru, który przesuwa pracę z kolejki ludzkiej. 69% to funkcja narzędzi dowodowych pod nim, a nie stała właściwość agentów. Każda dostarczona bramka zmniejsza ten odsetek.

Bibliografia


  1. „Show HN: Daemons – we pivoted from building agents to cleaning up after them,” wątek na Hacker News, 22 kwietnia 2026. 

  2. Charlie Labs, ai-daemons.com i dokumentacja Charlie Daemons. Daemony zdefiniowane w .agents/daemons/<id>/DAEMON.md z kluczami watch, schedule, routines i deny

  3. Marina Temkin, „InsightFinder raises $15M to help companies figure out where AI agents go wrong,” TechCrunch, 16 kwietnia 2026. 

  4. Sonarly, Show HN. Produkcyjna segregacja alertów, RCA i naprawcze PR-y na Sentry, Datadog i Grafana. 

  5. Cekura, Show HN. Zautomatyzowane testowanie, monitorowanie i symulacja dla agentów głosowych i czatowych. 

  6. Langfuse, dokumentacja Langfuse. Śledzenie i ewaluacja dla aplikacji LLM. 

  7. Arize, dokumentacja Phoenix. Open-source’owe śledzenie i obserwowalność LLM. 

  8. Braintrust, dokumentacja Braintrust agents. Obserwowalność z priorytetem ewaluacji dla stosów agentów. 

  9. Datadog, dokumentacja LLM Observability. Monitorowanie LLM i agentów wewnątrz platformy Datadog. 

  10. Fiddler AI, dokumentacja Fiddler Guardrails. Obserwowalność runtime LLM i poręcze ochronne. 

  11. Lakera, dokumentacja Lakera Guard. Płaszczyzna kontroli w czasie rzeczywistym dla wstrzykiwania promptów, nadużyć narzędzi i eksfiltracji danych. 

  12. Fiddler AI, Fiddler Guardrails. Egzekwowanie polityk dla aplikacji LLM. 

  13. Palo Alto Networks, „Palo Alto Networks to Acquire Chronosphere,” komunikat prasowy Palo Alto Networks, listopad 2025. Transakcja o wartości 3,35 miliarda dolarów. 

  14. Deepak Gupta, „AI Agent Observability, Evaluation, Governance: The 2026 Market Reality Check,” guptadeepak.com, 2026. 57% wdrożeń produkcyjnych, 72% wieloagentowych (vs 23% w 2024), 69% wymaga weryfikacji człowieka. 

  15. Analiza autora w Każdy hak to blizna, 29 marca 2026. Liczba haków w momencie publikacji: 84. 24 kwietnia 2026: 123 pliki haków na dysku, 88 wpisów umiejętności, 26 wierszy dopasowań haków w 15 typach zdarzeń cyklu życia. 

  16. Analiza autora w Nagradzaj narzędzie przed odpowiedzią, 24 kwietnia 2026. Cztery tryby awarii w kształcie odpowiedzi; wskaźnik weryfikacji-fantom spadł z 12% do poniżej 2% po wdrożeniu haka wykrywającego asekuracyjny język. 

  17. Analiza autora w Repozytorium nie powinno głosować nad własnym zaufaniem, 24 kwietnia 2026. Ostrzeżenia o obejściu dialogu zaufania CVE-2026-33068 i CVE-2026-40068. 

  18. Analiza autora w Filozofia jakości Jiro. Bramka dowodów: twierdzenia o jakości wymagają dowodów, a nie odczuć. 

  19. Analiza autora w Test Steve’a. „Czy podpisałbym się pod tym swoim nazwiskiem?” jako bramka smaku ponad bramką dowodów Jiro. 

  20. Analiza autora w Minimum Worthy Product. Minimum jako ograniczenie zakresu, worthy jako próg jakości. 

  21. Analiza autora w Warsztat, który noszę. Pięć zasad Steve’a Jobsa zmapowanych na orkiestratora AI, w tym troska na każdym poziomie powiększenia. 

  22. Anthropic, „Hooks reference,” dokumentacja code.claude.com. Taksonomia i dyspozycja haków cyklu życia. 

Powiązane artykuły

AI Agent Observability: Monitoring What You Can't See

AI agents consume disk, CPU, and network with zero operator visibility. Three observability layers close the gap before …

22 min czytania

The Fork Bomb Saved Us

The LiteLLM attacker made one implementation mistake. That mistake was the only reason 47,000 installs got caught in 46 …

7 min czytania

The Ralph Loop: How I Run Autonomous AI Agents Overnight

I built an autonomous agent system with stop hooks, spawn budgets, and filesystem memory. Here are the failures and what…

11 min czytania