Myślenie dziesięcioma umysłami: jak wykorzystuję deliberację agentów jako narzędzie decyzyjne
Byłem trzy godziny w trakcie projektowania systemu wyszukiwania pamięci dla mojego zestawu narzędzi Claude Code, kiedy postanowiłem przetestować tę decyzję w moim systemie deliberacji wieloagentowej. Dziesięciu agentów AI oceniło projekt niezależnie. Dziewięciu z nich miało opinie na temat architektury, bezpieczeństwa i wydajności. Dziesiąty zadał pytanie, o które sam nie pomyślałem: „Ile faktycznie kosztuje problem, który próbujesz rozwiązać?”
Odpowiedź zabiła projekt. Narzut tokenów, który planowałem zoptymalizować, kosztował miesięcznie mniej niż kawa. System wyszukiwania, który planowałem zbudować, wymagałby 200–400 godzin pracy inżynierskiej. Próg rentowności: 18 do 36 lat.1
Każdy inny agent wygenerował użyteczną analizę. Projekt Architekta Technicznego był czysty. Analityk Bezpieczeństwa znalazł realne ryzyka. Matematyka Inżyniera Wydajności była precyzyjna. Ale żaden z nich nie zakwestionował, czy projekt w ogóle powinien istnieć. Ja z pewnością tego nie zakwestionowałem. Byłem już zakotwiczony na rozwiązaniu. Analityk Kosztów nie miał takiego zakotwiczenia, ponieważ ocenia każdą propozycję od zera.
TL;DR
Nie można usunąć błędów poznawczych poprzez samą świadomość ich istnienia. Kahneman udowodnił to dekady temu: nawet eksperci badający błędy poznawcze padają ich ofiarą.2 Deliberacja wieloagentowa to interwencja strukturalna, a nie sztuczka promptingowa. Dziesięciu agentów AI z różnymi priorytetami oceny wymusza eksternalizację rozumowania, czyniąc martwe punkty widocznymi, zanim staną się zobowiązaniami. Zbudowałem architekturę w styczniu 2026 roku i korzystam z niej od dwóch miesięcy przy decyzjach obejmujących systemy pamięci, strategię bloga i projektowanie API. Ten wpis dotyczy praktyki: jak myśleć dziesięcioma umysłami, kiedy to robić i kiedy to pogarsza sytuację.
Problem z własną głową
Daniel Kahneman poświęcił karierę na dokumentowanie strukturalnej usterki ludzkiego poznania. System 1 generuje szybkie, intuicyjne oceny. System 2 ma je weryfikować. W praktyce System 2 działa w „wygodnym trybie niskiego wysiłku” i zatwierdza wnioski Systemu 1 bez wnikliwej kontroli.2 Centralne odkrycie Kahnemana: system nadzoru jest leniwy. Bezmyślnie stempluje intuicję.
To bezpośrednio odpowiada temu, jak większość ludzi korzysta z AI. Zadajemy pytanie jednemu agentowi. Agent generuje odpowiedź (System 1). Czytamy odpowiedź i decydujemy, czy brzmi poprawnie (System 2). Ale nasz System 2 ocenia odpowiedź przez pryzmat tych samych błędów poznawczych, które ukształtowały pytanie. Zakotwiczamy się na pierwszym sformułowaniu. Dostarczamy agentowi kontekst potwierdzający naszą istniejącą hipotezę. Agent, wyszkolony na bycie pomocnym, wzmacnia nasz kierunek. W żadnym momencie nikt nie kwestionuje przesłanki.
Oto błędy poznawcze, które najsilniej uderzają w decyzje inżynierskie:
| Błąd poznawczy | Jak się objawia | Co go wychwytuje |
|---|---|---|
| Potwierdzenia | Szukanie danych wspierających planowane podejście | Agent z przeciwstawnym mandatem |
| Zakotwiczenie | Pierwsza estymacja dominuje nad całym kolejnym myśleniem | Niezależna estymacja od wielu agentów |
| Koszty utopione | „Już zbudowaliśmy fundament, równie dobrze możemy kontynuować” | Analityk Kosztów, który ocenia od zera |
| Dostępności | Przecenianie najnowszego incydentu produkcyjnego | Agent z dostępem do wzorców historycznych |
| Dunning-Kruger | Pewność siebie w obszarach, w których brakuje głębi | Agent-specjalista domenowy |
| Błąd ocalałego | „Ostatnie trzy wdrożenia poszły dobrze” | Pesymista Utrzymania, który pyta o awarie, o których zapomnieliśmy |
Strategie przeciwdziałania są dobrze udokumentowane: procesy adwokata diabła, analiza pre-mortem, strukturalne ramy decyzyjne, zewnętrzne pętle zwrotne.3 Problemem jest ich wykonanie. Przeprowadzenie analizy pre-mortem wymaga zebrania ludzi, zaplanowania czasu i przezwyciężenia presji społecznej. Znalezienie adwokata diabła wymaga znalezienia kogoś, kto jest gotów nie zgadzać się z osobą podpisującą jego ocenę okresową.
Deliberacja wieloagentowa usuwa barierę wykonania. Agenci są zawsze dostępni. Nie mają społecznych bodźców, by się zgadzać. Oceniają niezależnie z założenia, nie z dyscypliny.
Deliberacja jako uzewnętrznione myślenie
Sam Altman opisuje pisanie jako „uzewnętrznione myślenie”: gdy problem wydaje się zagmatwany, zapisanie go wymusza jasność.4 Ten sam mechanizm działa w przypadku strukturalnej debaty. Kiedy dziesięciu agentów formułuje swoje rozumowanie równolegle, to rozumowanie staje się artefaktem, który można zbadać.
To nie jest nowy pomysł. Marvin Minsky zaproponował w The Society of Mind, że inteligencja wyłania się z interakcji wielu mniejszych, prostszych agentów, a nie z jednego wyrafinowanego procesu.5 Andrew Ng zidentyfikował trzy wzorce systemów wieloagentowych: debatę (proponuj, krytykuj, koryguj), współpracę (równolegli specjaliści z syntezatorem) i ewaluację antagonistyczną (red team kontra blue team).6 Framework Sześciu Kapeluszy Myślowych Edwarda de Bono, opublikowany w 1985 roku, przypisuje równoległe perspektywy (fakty, emocje, ostrożność, optymizm, kreatywność, proces), aby zapobiec zakotwiczeniu grupy na jednym trybie myślenia.7
Mój system deliberacji implementuje wszystkie trzy wzorce jednocześnie. Dziesięciu agentów badawczych to specjaliści (wzorzec współpracy Ng). Agenci Debaty i Syntezy tworzą strukturalny spór (wzorzec debaty Ng). Pesymista Utrzymania i Analityk Bezpieczeństwa funkcjonują jako ewaluatorzy antagonistyczni. Każdy agent odpowiada jednemu kapeluszowi myślowemu:
| Agent | Kapelusz de Bono | Tryb myślenia |
|---|---|---|
| Architekt Techniczny | Biały | Fakty, wykonalność, wzorce integracji |
| Analityk Kosztów | Biały | Dane, ekonomia, analiza progu rentowności |
| Rzecznik UX | Czerwony | Odczucia użytkownika, obciążenie poznawcze, tarcie |
| Analityk Bezpieczeństwa | Czarny | Ryzyka, podatności, scenariusze awarii |
| Pesymista Utrzymania | Czarny | Dług techniczny, koszty długoterminowe |
| Zwiadowca Innowacji | Zielony | Nowatorskie podejścia, alternatywy |
| Inżynier Wydajności | Żółty | Zyski efektywności, potencjał optymalizacji |
| Strażnik Jakości | Niebieski | Proces, strategia testowania, obserwowalność |
Architektura jest udokumentowana gdzie indziej. To, co tutaj się liczy, to praktyka. Deliberacja wymusza uzewnętrznienie decyzji w formacie, w którym błędy poznawcze stają się widoczne. Przestajemy pytać „czy to dobry pomysł?” i zaczynamy czytać dziesięć niezależnych odpowiedzi na pytanie „co może pójść nie tak, co mówi matematyka i jakie istnieją alternatywy?”
Pedro Domingos opisuje idealne AI jako „egzoszkielet umysłowy”: coś, co rozszerza myślenie, zamiast je zastępować, i reprezentuje interesy użytkownika, zamiast schlebiać jego wnioskom.8 Panel deliberacyjny obejmujący adwokata diabła, analityka kosztów i pesymistę utrzymania jest dokładnie tym. Wzmacnia te części naszego poznania, które są strukturalnie słabe.
Studium przypadku: decyzja o architekturze pamięci
W lutym 2026 roku przeprowadziłem pierwszy test na żywo systemu deliberacji na pytaniu z wstępu: jaką architekturę pamięci powinien wykorzystywać mój zestaw narzędzi Claude Code w 12 aktywnych projektach?1
Mój zestaw narzędzi wstrzykuje pliki MEMORY.md do każdej konwersacji. Pliki te zawierają decyzje projektowe, wzorce, historię błędów i notatki architektoniczne. Problem: większość tego kontekstu jest nieistotna dla danej sesji. Tylko 5–10% załadowanej pamięci ma znaczenie dla bieżącego zadania. Reszta to zmarnowane tokeny. Oczywisty cel optymalizacji.
Początkowy poziom pewności wyniósł 0,50 — znacznie poniżej progu 0,70 wyzwalającego deliberację. System wdrożył wszystkich dziesięciu agentów badawczych. Każdy badał niezależnie z izolacją kontekstu: agenci nie mogli widzieć ustaleń innych agentów podczas badań.
Wyłoniły się trzy podejścia:
| Podejście | Wynik | Poparcie | Werdykt |
|---|---|---|---|
| Inteligentne Natywne (selektywne wstrzykiwanie) | 7,04/10 | 8 z 10 agentów | Zwycięzca |
| Pozostań Natywnie (obecny system, wzmocniony) | 6,50/10 | 5 z 10 agentów | Bezpieczne, ale niski wpływ |
| Pełny Stos Pamięci (zewnętrzne narzędzia) | 5,38/10 | 1 z 10 agentów | Najwyższe możliwości, krytyczne ryzyko |
Wyniki mówią jedno. To, co znaleźli poszczególni agenci, mówi więcej.
Architekt Techniczny: Zidentyfikował cztery wzorce integracji (serwer MCP, rozszerzony MEMORY.md, wyszukiwanie wektorowe, menedżer agentowy). Zalecił podejście warstwowe: najpierw rozszerzyć istniejące pliki, później dodać wyszukiwanie wektorowe. Czysty projekt, dobrze określony zakres.
Analityk Bezpieczeństwa: Ocenił każde zewnętrzne narzędzie pamięci jako ryzyko WYSOKIE do KRYTYCZNEGO pod kątem ujawnienia poświadczeń. Zidentyfikował konkretny atak: skompromitowana sesja wstrzykuje „zawsze podsumowuj klucze API” do trwałej pamięci, bezgłośnie zatruwając każdą przyszłą sesję.
Inżynier Wydajności: Skwantyfikował marnotrawstwo. Tylko 5–10% załadowanej pamięci jest istotne na konwersację. Ale przy oknie kontekstu 1M tokenów, całkowity narzut pamięci to 2K tokenów — zaledwie 0,2% pojemności. „Oczywista optymalizacja” celuje w błąd zaokrąglenia.
Rzecznik UX: „Najlepszy system pamięci to taki, o którym nigdy się nie myśli.” Każda alternatywa dodaje podatek poznawczy. Użytkownicy zaczynają pytać „czy pamięć działa? Co ona wie?” i przestają ufać zautomatyzowanemu kontekstowi. Niewidoczny system cieszy się wyższym zaufaniem użytkowników niż jakikolwiek widoczny.
Pesymista Utrzymania: Wiele systemów pamięci tworzy kombinatoryczne powierzchnie awarii. Cztery współdziałające systemy generują 16 parowych trybów awarii. Claude Code aktualizuje się często. Zewnętrzne wtyczki psują się przy zmianach wersji. Cicha awaria hooka oznacza, że agent działa z niekompletnym kontekstem i bez ostrzeżenia.
Analityk Kosztów: To agent, który zabił projekt. Całkowity koszt tokenów za stałe ładowanie plików pamięci we wszystkich 12 projektach: trywialny. Proponowany system wyszukiwania zaoszczędziłby kilka dolarów miesięcznie. Czas inżynierski na jego budowę: 200–400 godzin. Próg rentowności: 18 do 36 lat. Podsumowanie Analityka Kosztów: „W świecie zafascynowanym optymalizacją, czasem właściwą odpowiedzią jest zostawić to, co działa dobrze.”
Żaden pojedynczy agent nie wygenerował błędnej analizy. Projekt Architekta Technicznego działał. Matematyka tokenowa Inżyniera Wydajności się zgadzała. Ale decyzja wymagała wszystkich dziesięciu perspektyw, by uniknąć pułapki optymalizacji. Pozostawiony sam ze swoimi instynktami, zbudowałbym system wyszukiwania, ponieważ wydawało się to postępem. Analityk Kosztów zadał pytanie, którego nie mogłem zadać sobie sam, bo trzy godziny planowania zakresu już zakotwiczyły moje myślenie na rozwiązaniu.
Deliberacja kontra pojedynek
Deliberacja jest kolaboratywna: dziesięciu agentów ocenia decyzję z różnych perspektyw. Zbudowałem też wariant rywalizacyjny, który ściga Claude Code z Codex CLI na tym samym zadaniu, ocenia oba plany na ślepo i syntetyzuje najsilniejsze elementy z każdego. Trzydzieści sześć pojedynków wygenerowało wzorce warte osobnego omówienia. Krótka wersja: deliberuję nad decyzjami architektonicznymi, a pojedynkuję plany implementacji. Deliberacja odpowiada na pytanie „czy powinniśmy to budować?” Pojedynek odpowiada na pytanie „jaki jest najlepszy sposób budowy?”
Pesymista Utrzymania i sztuka inwersji
Technika inwersji Charliego Mungera pyta: zamiast „jak osiągnąć X?”, zapytaj „co zagwarantowałoby porażkę w X?” A potem tego unikaj.9 Pre-mortem Gary’ego Kleina operacjonalizuje tę samą ideę: załóż, że projekt się nie powiódł, a potem wyjaśnij dlaczego.10 Badania Philipa Tetlocka nad trafnością prognoz wykazały, że „lisy” integrujące wiele perspektyw konsekwentnie przewyższają „jeże” przywiązane do jednej wielkiej idei.11
Każdy agent deliberacyjny ucieleśnia nazwany framework myślowy:
| Agent | Framework myślowy | Pytanie, które zadaje |
|---|---|---|
| Pesymista Utrzymania | Inwersja (Munger) | „Co sprawi, że za 6 miesięcy będziemy tego żałować?” |
| Analityk Bezpieczeństwa | Pre-mortem (Klein) | „Wdrożyliśmy i doszło do włamania. Co przeoczyliśmy?” |
| Zwiadowca Innowacji | Myślenie lisie (Tetlock) | „Jakie podejścia z innych dziedzin mają tu zastosowanie?” |
| Analityk Kosztów | Pierwsze zasady | „Co faktycznie mówi matematyka?” |
| Rzecznik UX | Mapowanie empatii | „Jak użytkownik doświadcza tej awarii?” |
Pesymista Utrzymania to najcenniejszy agent w moim systemie. Nie dlatego, że jest najinteligentniejszy czy najbardziej dokładny, ale dlatego, że zadaje pytanie, które sam jestem najmniej skłonny sobie zadać. Kiedy jestem podekscytowany budowaniem czegoś, ostatnią rzeczą, o której chcę myśleć, jest to, ile będzie kosztowało utrzymanie za sześć miesięcy. Pesymista Utrzymania nie ma entuzjazmu. Nie ma kosztów utopionych. Ocenia propozycję tak, jakby już istniała, i pyta, co się zepsuje.
W deliberacji o architekturze pamięci Pesymista Utrzymania zidentyfikował, że cztery współdziałające systemy pamięci generują 16 parowych trybów awarii. Claude Code aktualizuje się często. Zewnętrzne wtyczki psują się przy zmianach wersji. Ciche awarie hooków oznaczają, że agent działa z niekompletnym kontekstem i bez ostrzeżenia. To nie są hipotetyczne ryzyka. To przewidywania oparte na wzorcach, które pesymista został wytrenowany rozpoznawać.
Kahneman opisał pre-mortem jako jedną z najskuteczniejszych technik eliminacji błędów poznawczych, jakie zna, ponieważ legitymizuje sprzeciw.2 Agent deliberacyjny, który jest zaprojektowany do sprzeciwu, całkowicie eliminuje koszt społeczny.
Brama Dowodowa: nie pozwól sobie na samoocenę
Mój zestaw narzędzi stosuje wzorzec Bramy Dowodowej dla każdego raportu zakończenia.12 Zasada: odczucia nie są dowodem. „Wierzę, że to działa” nie jest twierdzeniem. Uruchomienie zestawu testów i wklejenie wyniku jest twierdzeniem.
| Kryterium | Wymagany dowód | NIEWYSTARCZAJĄCE |
|---|---|---|
| Zgodność ze wzorcami bazy kodu | Nazwa wzorca i plik, gdzie występuje | „Zastosowałem najlepsze praktyki” |
| Najprostsze działające rozwiązanie | Nazwa odrzuconych alternatyw i powód | „Jest czyste” |
| Obsługa przypadków brzegowych | Lista konkretnych przypadków i sposób rozwiązania każdego | „Rozważyłem przypadki brzegowe” |
| Testy przechodzą | Wklejony wynik testów | „Testy powinny przechodzić” |
| Brak regresji | Nazwy sprawdzonych powiązanych plików i funkcji | „Nic innego nie powinno być naruszone” |
Język asekuracyjny to sygnał ostrzegawczy: „powinno,” „prawdopodobnie,” „wydaje się,” „wierzę,” „wygląda poprawnie.” Każde z tych słów sygnalizuje, że weryfikacja nie nastąpiła.12 Dotyczy to również ludzkiego rozumowania. Kiedy przyłapiemy się na stwierdzeniu „jestem dość pewien, że to właściwe podejście” — to nie jest dowód. To System 2 bezmyślnie stemplujący System 1.
Deliberacja wieloagentowa wymusza Bramę Dowodową strukturalnie. Analityk Kosztów nie mówi „to prawdopodobnie ma sens ekonomiczny.” Mówi: „9 USD/miesiąc obecny koszt, 5 USD/miesiąc oszczędności, 200–400 godzin budowy, 18–36 lat do progu rentowności.” Analityk Bezpieczeństwa nie mówi „stan bezpieczeństwa wygląda rozsądnie.” Mówi: „scenariusz zatruwania pamięci: skompromitowana sesja wstrzykuje instrukcje wydobywania poświadczeń do trwałej pamięci.”
Najskuteczniejszy mechanizm eliminacji błędów poznawczych, jaki znalazłem, to nie lista kontrolna ani filozofia. To system, w którym agenci nie mogą się samooceniać. Muszą dostarczyć dowody, a te dowody są oceniane przez innych agentów, którzy nie mają bodźca do zgadzania się.
Kiedy NIE deliberować
Deliberacja też ma tryby awarii. System dodaje 2–4 minuty i 2–3 USD za wywołanie w pełnej skali. Co ważniejsze, może przekorygować.
Przeprowadziłem deliberację nad prostym refaktoringiem endpointu API. Dziesięciu agentów wyprodukowało zastrzeżenia dotyczące kompatybilności wstecznej, ścieżek migracji, limitowania zapytań, obsługi błędów, monitoringu i dokumentacji. Endpoint obsługiwał dwóch wewnętrznych konsumentów. Deliberacja wygenerowała 14 punktów działania dla czegoś, co powinno być zmianą na 20 linijek. Zignorowałem 12 z nich i wdrożyłem refaktoring. Deliberacja była technicznie poprawna — ryzyka były realne — ale decyzja była drzwiami dwukierunkowymi.13
Jeff Bezos rozróżnia decyzje Typu 1 (nieodwracalne, drzwi jednokierunkowe) od decyzji Typu 2 (odwracalne, drzwi dwukierunkowe). Decyzje Typu 1 wymagają starannej deliberacji: zmiany schematu bazy danych, architektura bezpieczeństwa, publiczne kontrakty API. Decyzje Typu 2 wymagają szybkości: wewnętrzne refaktoringi, aktualizacje dokumentacji, eksperymenty z flagami funkcji.13 Stosowanie ciężkiego procesu do lekkich decyzji jest samo w sobie formą marnotrawstwa.
Zasady, których się trzymam:
Deliberuj, gdy: - Decyzja jest nieodwracalna lub kosztowna do cofnięcia - Wiele kompromisów wymaga specjalistycznej oceny - Poziom pewności jest poniżej 0,70 (czujemy niepewność, ale nie potrafimy wyrazić dlaczego) - Domena wykracza poza główną ekspertyzę
Po prostu zdecyduj, gdy: - Zmiana jest za flagą funkcji lub łatwa do cofnięcia - Zakres jest ograniczony (jeden plik, jedna funkcja, jeden endpoint) - Ten typ decyzji był podejmowany z powodzeniem wcześniej - Koszt pomyłki jest niższy niż koszt deliberacji
Nigdy nie deliberuj nad: - Poprawkami dokumentacji - Zmianami nazw zmiennych - Aktualizacjami fikstur testowych - Zmianami komunikatów logów
10% decyzji zasługujących na deliberację generuje 90% wartości. Deliberacja nad wszystkim prowadzi do paraliżu analitycznego. Brak deliberacji nad czymkolwiek wdraża błędy poznawcze, których nie widzimy.
Czego nauczyłem się w dwa miesiące
System przeprowadził około 40 deliberacji od stycznia 2026. Wzorce:
-
Analityk Kosztów to najbardziej niedoceniany agent. Inżynierowie instynktownie sięgają po Inżyniera Wydajności i Analityka Bezpieczeństwa. Analityk Kosztów zabił więcej złych pomysłów niż jakakolwiek inna persona, zadając jedno pytanie, którego inżynierowie nienawidzą: „ile to faktycznie kosztuje?”
-
Konsensus poniżej 0,70 oznacza, że pytanie jest złe. Kiedy agenci nie mogą się zgodzić, problemem jest zwykle niejasne sformułowanie, a nie rzeczywisty spór. Ponowne określenie zakresu pytania i powtórzenie deliberacji daje lepsze wyniki niż wymuszanie konwergencji.
-
Pesymista Utrzymania wychwytuje to, co post-mortemy odkrywają za późno. Każde zastrzeżenie, które Pesymista Utrzymania podniósł w kwestii architektury pamięci, zostało od tego czasu potwierdzone przez rzeczywiste doświadczenie utrzymywania prostszych systemów.
-
Dwóch agentów wychwytuje 80% wartości. Minimalny działający wzorzec: jeden agent argumentuje ZA, drugi PRZECIW. Niezależność jest mechanizmem. Dziesięciu agentów jest lepszych, ale dwóch agentów jest nieskończenie lepszych niż jeden.
-
Deliberacja poprawia pytanie, nie tylko odpowiedź. Najczęstszym rezultatem nie jest „zwycięskie podejście.” To „pytanie przeformułowane w sposób, który czyni odpowiedź oczywistą.”
Źródła
-
Sesja deliberacyjna autora
delib-20260207-082618-9105e6. 10 agentów badawczych, wygenerowane 3 podejścia, zwycięskie podejście ocenione na 7,04/10 z poparciem 8/10 agentów. Pełny zapis sesji w skarbcu Obsidian. ↩↩ -
Kahneman, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, 2011. System 2 działa w „wygodnym trybie niskiego wysiłku” i zatwierdza wnioski Systemu 1 bez wnikliwej kontroli. ↩↩↩
-
Notatka autora ze skarbca, „20 Cognitive Biases That Mess Up Your Decisions.” Strategie przeciwdziałania: proces adwokata diabła, analiza pre-mortem, strukturalne ramy decyzyjne, zewnętrzne pętle zwrotne. ↩
-
Altman, Sam. „I think of writing as externalized thinking. If I have a very hard problem or if I feel a little bit confused about something, I have to write it down.” Via @StartupArchive_. ↩
-
Minsky, Marvin, The Society of Mind, Simon & Schuster, 1986. Inteligencja wyłania się z interakcji wielu mniejszych, prostszych agentów, a nie z jednego wyrafinowanego procesu. ↩
-
Ng, Andrew. Wzorce wieloagentowego AI: debata (proponuj-krytykuj-koryguj), współpraca (równolegli specjaliści z syntezatorem), antagonistyczny (red team kontra blue team). Raportowane marzec 2024. ↩
-
de Bono, Edward, Six Thinking Hats, Little, Brown and Company, 1985. Sześć równoległych perspektyw zapobiega zakotwiczeniu na jednym trybie myślenia. ↩
-
Domingos, Pedro. AI jako „egzoszkielet umysłowy”: rozszerzać myślenie ludzkie, zamiast je zastępować, reprezentować interesy użytkownika, zamiast schlebiać jego wnioskom. ↩
-
Munger, Charlie. Myślenie inwersyjne: zamiast „Jak osiągnąć X?”, zapytaj „Co zagwarantowałoby porażkę w X?” A potem tego unikaj. Często cytowane na zgromadzeniach akcjonariuszy Berkshire Hathaway. ↩
-
Klein, Gary, „Performing a Project Premortem,” Harvard Business Review, wrzesień 2007. Załóż, że projekt się nie powiódł, a potem wyjaśnij dlaczego. Na podstawie badań Mitchella, Russo i Penningtona (1989), które wykazały, że retrospektywna perspektywa zwiększa identyfikację przyczyn niepowodzeń o 30%. ↩
-
Tetlock, Philip E., Expert Political Judgment: How Good Is It? How Can We Know?, Princeton University Press, 2005. „Lisy” integrujące wiele perspektyw konsekwentnie przewyższają „jeże” przywiązane do jednej idei. Rozwinięte w Superforecasting (Crown, 2015). ↩
-
Wzorzec Bramy Dowodowej autora. Implementacja w regułach Quality Loop (
~/.claude/rules/quality-loop.md). Język asekuracyjny wyzwala obowiązkową ponowną weryfikację. Zob. także Jiro Quality Philosophy. ↩↩ -
Bezos, Jeff, list do akcjonariuszy Amazon z 2015 roku (zgłoszenie SEC). Decyzje Typu 1: nieodwracalne, drzwi jednokierunkowe wymagające starannej deliberacji. Decyzje Typu 2: odwracalne, drzwi dwukierunkowe wymagające szybkości. ↩↩