← Wszystkie wpisy

Stos walidacji startupowej: czego 12 projektów nauczyło mnie o dowodach

CB Insights przeanalizowało 101 pośmiertnych analiz startupów i stwierdziło, że 42% z nich upadło z powodu braku zapotrzebowania rynkowego. Doświadczyłem tego samego schematu porażki w mniejszej skali: zbudowałem SureInsure (narzędzie do analizy ubezpieczeń) do stanu w pełni gotowego produktu, zanim zapytałem choćby jednego użytkownika, czy w ogóle chce takiego rozwiązania. Nikt nie chciał. Budowanie zajęło trzy tygodnie. Walidacja, która zaoszczędziłaby te trzy tygodnie, zajmuje jedno popołudnie.1

TL;DR

Walidacja startupowa przebiega w określonej kolejności: pożądalność (czy ludzie chcą rozwiązania?), wykonalność (czy zespół jest w stanie zbudować rozwiązanie?) i opłacalność (czy rozwiązanie może utrzymać biznes?). Po uruchomieniu 12 projektów w 9 miesięcy — Ace Citizenship, Return (941), ResumeGeni, Banana List, Water, Reps, Design Gallery, Sorting Visualizer, Starfield Destroyer, SureInsure, amp97 i mojej strony osobistej — doświadczyłem osobiście każdego antywzorca walidacyjnego. Projekty, w których walidowałem przed budowaniem, szybciej trafiały na rynek i znajdowały użytkowników. Projekty, w których budowałem przed walidacją, dały mi kosztowne lekcje.


Moja karta wyników walidacji

Projekt Walidacja przed budowaniem? Wynik
ResumeGeni Tak (landing page + lista oczekujących) Aktywni użytkownicy, przychód
Ace Citizenship Tak (badanie społeczności + wywiady) Rosnąca baza użytkowników
Strona osobista Częściowo (treść zwalidowana, design nie) 100/100 Lighthouse, stabilny ruch
Banana List Nie (rozwiązanie własnego problemu) Przydatna dla mnie, brak trakcji rynkowej
SureInsure Nie (budowa do pełnej gotowości) Zero użytkowników, odłożona na półkę
Sorting Visualizer Nie (weekendowy projekt) Element portfolio, nie produkt

Wzorzec jest wyraźny: projekty, w których zainwestowałem w dowody walidacyjne przed pisaniem kodu, znalazły użytkowników. Projekty, w których najpierw budowałem, a walidowałem później, nigdy nie przyniosły rezultatów.2


Sekwencja walidacji

Dlaczego kolejność ma znaczenie

Inżynierowie domyślnie zaczynają od wykonalności: „Czy możemy to zbudować?” Menedżerowie produktu domyślnie zaczynają od opłacalności: „Czy możemy na tym zarobić?” Obie grupy pomijają pytanie, które zabija 42% startupów: „Czy ktokolwiek w ogóle tego chce?”3

Prawidłowa sekwencja testuje najpierw najtańsze do zwalidowania założenie:

  1. Walidacja problemu (Czy problem jest realny i dotkliwy?)
  2. Walidacja rozwiązania (Czy proponowane rozwiązanie adresuje problem?)
  3. Walidacja kanału (Czy można dotrzeć do docelowego klienta?)
  4. Walidacja przychodu (Czy klienci zapłacą?)
  5. Walidacja skali (Czy ekonomika jednostkowa działa na dużą skalę?)

Każdy etap kosztuje więcej do przetestowania niż poprzedni. Pomijanie kroków marnuje zasoby na testowanie kosztownych założeń, które zależą od niezwalidowanych tanich założeń.


Projekty, w których pominąłem kroki

SureInsure: pułapka pełnej funkcjonalności

Zbudowałem SureInsure — narzędzie do analizy polis ubezpieczeniowych oparte na LLM — ponieważ dokumenty ubezpieczeniowe wydawały mi się niezrozumiałe. Moje podejście do walidacji: żadne. Założyłem, że moja osobista frustracja przekłada się na zapotrzebowanie rynkowe.

Trzy tygodnie budowania dały działające narzędzie, które potrafiło parsować polisy ubezpieczeniowe, wyróżniać luki w pokryciu i wyjaśniać wyłączenia prostym językiem. Technologia działała. Problem polegał na czym innym: posiadacze polis ubezpieczeniowych nie szukają aktywnie narzędzi analitycznych. Ból jest realny, ale ukryty — ludzie nie wiedzą, że ich pokrycie jest niewystarczające, dopóki roszczenie nie zostanie odrzucone. Żadna jakość produktu nie rozwiąże problemu dystrybucji w przypadku ukrytego punktu bólu.

Co ujawniłaby walidacja: Kilkanaście rozmów z posiadaczami ubezpieczeń ujawniłoby, że nikt nie szuka w internecie frazy „analizator polis ubezpieczeniowych”. Problem pojawia się w momencie zgłaszania roszczenia, nie przy przeglądaniu polisy. Kanał (wyszukiwarka) nie pasuje do momentu wystąpienia problemu (kryzys).4

Banana List: rozwiązywanie własnego problemu

Zbudowałem Banana List (aplikację do listy zakupów w SwiftUI + SwiftData), ponieważ chciałem konkretnego przepływu pracy: szybkie dodawanie, synchronizacja przez iCloud i nic więcej. Walidacją było moje własne użytkowanie — co jest uzasadnione dla narzędzi, które buduję dla siebie, ale nie dostarcza żadnych dowodów rynkowych.

Banana List działa. Używam tej aplikacji codziennie. Aplikacja doskonale obsługuje jednego użytkownika. Błędem nie było zbudowanie aplikacji, lecz założenie, że „ja chcę tego produktu” przekłada się na „rynek chce tego produktu”. Moje użytkowanie zwalidowało wykonalność i osobistą pożądalność, ale nie zwalidowało niczego w kwestii pożądalności rynkowej ani dystrybucji.


Projekty, w których najpierw walidowałem

ResumeGeni: landing page przed kodem

ResumeGeni zaczęło się od pytania: czy osoby szukające pracy zapłacą za CV generowane przez AI, zoptymalizowane pod systemy ATS? Zanim napisałem choćby linijkę kodu aplikacji, zbudowałem landing page opisujący propozycję wartości i dodałem formularz listy oczekujących.

Dowody: - 340 zapisów e-mailowych w 2 tygodnie z ukierunkowanych postów na Reddicie i LinkedIn - 12 użytkowników, którzy odpowiedzieli pytając „Kiedy będę mógł skorzystać z produktu?” - 3 użytkowników, którzy zaproponowali opłatę za wczesny dostęp

Lista oczekujących zwalidowała pożądalność (ludzie chcą CV zoptymalizowanych pod ATS) i kanał (społeczności osób szukających pracy na Reddicie/LinkedIn). Dopiero po tym, jak dowody przekroczyły mój próg, zainwestowałem w budowę backendu FastAPI, frontendu HTMX i integrację z LLM.5

Ace Citizenship: najpierw badanie społeczności

Ace Citizenship (aplikacja do przygotowania do testu na obywatelstwo) zaczęło się od badania społeczności, nie od kodu. Spędziłem dwa tygodnie na forach poświęconych przygotowaniu do obywatelstwa, subredditach i grupach na Facebooku, obserwując: - Jakie pytania ludzie zadawali najczęściej - Na jakie wady istniejących rozwiązań narzekali - Czego brakowało im w dostępnych narzędziach

Badanie ujawniło lukę: istniejące aplikacje przygotowawcze obejmowały treść, ale nie strategię zdawania testu. Luka strategiczna stała się wyróżnikiem produktu. Budowanie rozpoczęło się dopiero po tym, jak badanie dostarczyło wyraźny wyróżnik, którego istniejące produkty nie adresowały.6


Framework 30-dniowy (udoskonalony przez doświadczenie)

Tydzień 1: walidacja problemu

Metoda: Przeprowadzenie 10-15 ustrukturyzowanych wywiadów z potencjalnymi klientami. Nie opisywać rozwiązania. Skupić się wyłącznie na przestrzeni problemu.

Pytania, które naprawdę działają: - „Proszę opowiedzieć, jak wyglądała ostatnia sytuacja, w której doświadczył(a) Pan/Pani [problemu]. Co się wydarzyło?” - „Co Pan/Pani próbował(a)? Co zadziałało, a co nie?” - „Ile czasu/pieniędzy wydaje Pan/Pani na radzenie sobie z [problemem] obecnie?”

Artefakt dowodowy: Macierz częstotliwości i dotkliwości problemu. Jeśli mniej niż 7 z 15 respondentów opisuje problem jako częsty (cotygodniowy lub częstszy) i dotkliwy (wydawanie pieniędzy/czasu na obejścia), problem nie ma wystarczającej siły przyciągania rynkowego.7

Tydzień 2: walidacja rozwiązania

Metoda: Przedstawienie koncepcji rozwiązania (makiety, landing page lub opis słowny) tym samym respondentom. Mierzyć intensywność reakcji, nie uprzejmość.

Silne sygnały: „Kiedy będę mógł/mogła skorzystać z produktu?” „Czy mogę zapłacić za wczesny dostęp?” „Pozwoli Pan/Pani, że przedstawię kolegę, który potrzebuje takiego rozwiązania.”

Słabe sygnały: „To ciekawe.” „Ładnie wygląda.” „Pewnie bym spróbował/spróbowała.” Wszystkie trzy usłyszałem od znajomych w przypadku SureInsure. Żaden nie przekształcił się w użytkowanie.

Artefakt dowodowy: Wskaźnik zaangażowania. Jeśli mniej niż 3 z 15 osób podejmie konkretne działanie (rejestracja, wpłata, polecenie), rozwiązanie nie odpowiada problemowi wystarczająco silnie.8

Tydzień 3: walidacja kanału

Metoda: Przeprowadzenie dwóch eksperymentów pozyskiwania klientów na małą skalę. Wydanie 200-500 USD na kanał w celu sprawdzenia, czy można dotrzeć do docelowego klienta.

W przypadku ResumeGeni przetestowałem dwa kanały: - Społeczności osób szukających pracy na Reddicie: 340 zapisów przy wydatkach 0 USD (posty organiczne) - Ukierunkowane treści na LinkedIn: 45 zapisów przy wydatkach 150 USD (3,33 USD za zapis)

Reddit wygrał. Walidacja kanału wskazała, gdzie inwestować bieżące wysiłki w pozyskiwanie użytkowników.9

Tydzień 4: walidacja przychodu i ekonomiki jednostkowej

Metoda: Przedsprzedaż produktu lub przyjmowanie płatności za wczesny dostęp.

Artefakt dowodowy: Wskaźnik konwersji z kwalifikowanego leada do płacącego klienta. Jeśli wskaźnik spada poniżej 2% dla B2B lub 0,5% dla B2C, propozycja wartości wymaga rewizji przed inwestowaniem w rozwój produkcyjny.10


Antywzorce walidacyjne, które sam praktykowałem

Pułapka ankiet

Ankiety mierzą deklarowane preferencje. Wywiady z klientami i zachowania świadczące o zaangażowaniu mierzą ujawnione preferencje. Ankieta pokazująca 80% odpowiedzi „użyłbym produktu” przekłada się na mniej więcej 5% rzeczywistej adopcji. Różnicę między deklarowanymi a ujawnionymi preferencjami poznałem na przykładzie SureInsure: każdy znajomy powiedział „to brzmi przydatnie”. Zero znajomych skorzystało z produktu po uruchomieniu.11

Problem sieci kontaktów założyciela

Założyciele, którzy walidują wyłącznie w obrębie swojej sieci kontaktów, otrzymują zniekształcone dane. Znajomi dostarczają wspierającą informację zwrotną, która nie prognozuje zachowań rynkowych. Kontakt na zimno z nieznajomymi dostarcza dane walidacyjne wyższej jakości, ponieważ nieznajomi nie mają społecznej motywacji do okazywania zachęty.

Walidacja ResumeGeni zadziałała, ponieważ zapisy pochodziły od nieznajomych na Reddicie, a nie od znajomych. „Walidacja” SureInsure zawiodła, ponieważ pytałem wyłącznie osoby, które mnie znały.12


Kluczowe wnioski

Dla założycieli: - Należy walidować pożądalność przed wykonalnością; najczęstszym trybem porażki jest budowanie produktu, którego nikt nie chce, a nie budowanie produktu, który nie działa - Należy mierzyć zachowania świadczące o zaangażowaniu (zapisy, wpłaty, polecenia), a nie deklarowany entuzjazm; uprzejme zainteresowanie nie prognozuje zachowań zakupowych - Landing page z listą oczekujących kosztuje jedno popołudnie; budowanie do stanu pełnej gotowości kosztuje tygodnie lub miesiące

Dla inżynierów dołączających do startupów: - Warto poprosić o dowody walidacyjne przed zaangażowaniem się w architekturę techniczną; właściwa inwestycja techniczna zależy od tego, które hipotezy zostały zwalidowane - Prototypy powinny służyć szybkości uczenia się, nie jakości produkcyjnej; celem pierwszej wersji jest generowanie dowodów, nie obsługa klientów na dużą skalę


Źródła


  1. CB Insights, “The Top 12 Reasons Startups Fail,” Research Brief, 2021. 

  2. Author’s project validation scorecard. 12 projects launched in 9 months with varying validation approaches. Projects with pre-build validation outperformed projects without. 

  3. Osterwalder, Alexander et al., Testing Business Ideas, Wiley, 2019. Validation sequence methodology. 

  4. Author’s SureInsure post-mortem. LLM-powered insurance analysis tool built to feature-complete without market validation. Zero user adoption. 

  5. Author’s ResumeGeni validation. Landing page produced 340 signups, 12 direct inquiries, and 3 early access payment offers before application code was written. 

  6. Author’s Ace Citizenship research. Two weeks of community observation in citizenship prep forums revealed strategy gap as product differentiator. 

  7. Fitzpatrick, Rob, The Mom Test, self-published, 2013. Customer interview methodology that avoids false positives. 

  8. Alvarez, Cindy, Lean Customer Development, O’Reilly, 2014. Commitment behavior as validation signal. 

  9. Author’s channel validation. Community forum posts (340 signups, $0) vs. professional network paid content (45 signups, $150). Channel economics determined acquisition approach. 

  10. Ries, Eric, The Lean Startup, Crown Business, 2011. MVP and pre-sell validation methodology. 

  11. Ariely, Dan, Predictably Irrational, HarperCollins, 2008. Gap between stated and revealed preferences. 

  12. Maurya, Ash, Running Lean, O’Reilly, 2012. Cold outreach validation methodology. 

Powiązane artykuły

The Pathless Path: How I Left a 12-Year VP Role to Build 12 Projects

I left VP of Product Design at ZipRecruiter after 12 years to build independently. No plan, no destination, just curiosi…

6 min czytania

Critical Yet Kind: How I Encoded Feedback Principles into 86 Hooks

Google's Project Aristotle found psychological safety predicts team performance. I encoded the same principles into auto…

6 min czytania

Four Years of Past Year Reviews: What I Actually Learned

Four years of Past Year Review data revealed which decisions compound and which drain energy. The data changed how I mak…

6 min czytania