AI Image Generation

Midjourney Prompt Engineering: Kompletny przewodnik

Midjourney Prompt Engineering: Kompletny przewodnik

6702 words 26 min czytania Updated 2026-03-21

Aktualizacja z 17 marca 2026

Aktualizacja z marca 2026: V8 Alpha jest DOSTĘPNA. 17 marca 2026 roku Midjourney uruchomiło V8 Alpha na alpha.midjourney.com do testów społecznościowych.21 V8 generuje obrazy ~5x szybciej niż V7, ze znacząco ulepszonym rozumieniem instrukcji, spójnością i renderowaniem tekstu (dla najlepszych rezultatów warto używać „cudzysłowów”). Nowe parametry: --hd dla natywnej rozdzielczości 2K oraz --q 4 dla zwiększonej spójności. V8 obsługuje --chaos, --weird, --exp, --raw i --stylize (zalecane wartości do 1000). Uwaga dotycząca kosztów: zadania z --hd, --q 4, --sref oraz Moodboard kosztują 4x więcej niż zwykłe zadania w fazie alpha.21 Tryb Relax nie jest jeszcze dostępny dla V8 — nowa infrastruktura serwerowa jest w trakcie rozwoju. Profile personalizacji V7, moodboardy i srefs są w pełni kompatybilne wstecznie z V8.21 Nowe funkcje interfejsu: ulepszony tryb konwersacyjny umożliwiający naturalny dialog, „Grid Mode” do pracy z dużymi zestawami obrazów oraz ustawienia przeniesione do paneli bocznych.21 Plan po V8: najpierw model edycji, następnie model wideo V2 (nowy klaster obliczeniowy umożliwia trenowanie większych modeli wideo).18 Personalizacja obsługuje wiele nazwanych profili z przyspieszoną konfiguracją (5x szybciej), a jednocześnie można aktywować kilka profili równocześnie.15 Interfejs personalizacji został przeprojektowany 26 lutego 2026: porównywanie par obrazów zastąpiono szybszym systemem siatki z klikaniem i przewijaniem.19 Moodboards zyskały parametr --profile do bezpośredniego użycia po ID i mogą być teraz łączone z kodami --sref w jednym prompcie.1517 Niji 7 (9 stycznia 2026) zapewnia czystsze linie, ulepszone detale oczu i odbić oraz znacząco zmniejszony dryft stylu --sref--cref pozostaje niedostępny, ale Personalization i Moodboards są w pełni obsługiwane w Niji 7 od 26 lutego 2026.319 Interfejs webowy zyskał funkcję Describe on Web (kliknięcie prawym przyciskiem na dowolnym obrazie generuje 4 prompty tekstowe), nowe proporcje obrazu oraz operacje wsadowe dla 2000 elementów.1317 Funkcja Rooms została usunięta 26 lutego 2026.16 Video, Moodboards, Draft Mode i wszystkie funkcje V7 pozostają aktualne. Pełna historia zmian w sekcji Changelog.1

Poświęciłem setki godzin na testowanie Midjourney w każdej wersji, kombinacji parametrów i kierunku stylistycznym. Niniejszy przewodnik destyluje to doświadczenie w kompleksowe kompendium, które chciałbym mieć, gdy sam zaczynałem. Niezależnie od tego, czy tworzysz swój pierwszy prompt, czy przesuwasz granice możliwości — opisane tu techniki są do Twojej dyspozycji.

Midjourney to nie magiczny konwerter promptów na obrazy. To zaawansowany system języka wizualnego, który reaguje na konkretne wzorce, respektuje określone hierarchie i nagradza tych, którzy rozumieją jego architekturę. Różnica między generyczną sztuką AI a oszałamiającymi, świadomie tworzonymi obrazami tkwi właśnie w zrozumieniu tych wzorców.

Kluczowa obserwacja: V7 fundamentalnie zmienił sposób działania promptów. Dawne podejście oparte na zlepku słów kluczowych („beautiful, stunning, 8k, detailed, masterpiece”) aktywnie pogarsza rezultaty. V7 rozumie język naturalny — warto pisać prompty tak, jakby się opisywało zdjęcie doświadczonemu operatorowi filmowemu, a nie tagowało bazę zdjęć stockowych.

Niniejszy przewodnik obejmuje wszystko — od pierwszej instalacji po zaawansowane techniki, których większość użytkowników nigdy nie odkrywa. Każdy parametr jest udokumentowany z rzeczywistymi zakresami, prawdziwymi przykładami i przypadkami brzegowymi, które potrafią zaskoczyć nawet doświadczonych użytkowników.


Spis treści

Część 1: Podstawy

  1. Czym jest Midjourney?
  2. Pierwsze kroki
  3. Kluczowe pojęcia
  4. Hierarchia promptu

Część 2: Opanowanie parametrów

  1. Wybór wersji
  2. Proporcje obrazu
  3. Stylizacja
  4. Chaos i Weird
  5. Estetyka eksperymentalna

Część 3: Systemy referencji

  1. Omni Reference
  2. Style Reference
  3. Image Weight
  4. Draft Mode

Część 4: Generowanie wideo

  1. Podstawy konwersji obrazu na wideo
  2. Wydłużanie i zapętlanie
  3. Najlepsze praktyki wideo

Część 5: Szablony gatunkowe

  1. Realizm filmowy
  2. Fotografia portretowa
  3. Fotografia produktowa
  4. Fantasy i Sci-Fi
  5. Anime z Niji 7
  6. Architektura
  7. Abstrakcja i eksperymenty

Część 6: Zaawansowane techniki

  1. Wagi słów
  2. Prompty negatywne
  3. Kontrola ziarna
  4. Kompozycja z wieloma podmiotami
  5. Renderowanie tekstu

Część 7: Przepływy pracy i optymalizacja

  1. Pętla iteracyjna
  2. Zarządzanie kosztami
  3. Rozwiązywanie problemów
  4. Migracja między wersjami

Część 8: Materiały referencyjne

  1. Ściągawka parametrów
  2. Historia zmian

Czym jest Midjourney?

Midjourney to generatywny system AI, który tworzy obrazy na podstawie opisów tekstowych. W odróżnieniu od tradycyjnej edycji zdjęć czy fotografii stockowej, wystarczy opisać to, co chce się zobaczyć, a Midjourney wygeneruje oryginalne obrazy odpowiadające wizji użytkownika.

Co wyróżnia Midjourney:

Aspekt Midjourney Konkurencja
Jakość obrazu Wiodąca w branży estetyka Zróżnicowana
Język naturalny V7 rozumie pełne zdania Często zależna od słów kluczowych
Fotorealizm Wyjątkowy w V7 Dobry do doskonałego
Anime/Ilustracja Zoptymalizowane modele Niji Ogólnego przeznaczenia
Wideo Natywne wsparcie (czerwiec 2025) Wymaga osobnych narzędzi
Społeczność Zintegrowane udostępnianie/odkrywanie Różnie

Co można tworzyć:

  • Fotorealistyczne obrazy: portrety, produkty, architektura, natura
  • Ilustracje: concept art, okładki książek, grafika redakcyjna
  • Anime i manga: za pomocą wyspecjalizowanych modeli Niji
  • Sztuka abstrakcyjna: kompozycje eksperymentalne i surrealistyczne
  • Wideo: animowane klipy o długości 5–21 sekund na podstawie obrazów

Czym Midjourney nie jest:

  • Nie jest edytorem zdjęć (do tego służy Photoshop)
  • Nie jest systemem zapewniającym spójność postaci (choć szybko się rozwija)
  • Nie jest narzędziem do odtwarzania konkretnych postaci chronionych prawem autorskim
  • Nie jest darmowy (subskrypcje od 10 do 120 USD/miesiąc)

Pierwsze kroki

Konfiguracja konta

  1. Należy odwiedzić midjourney.com
  2. Zalogować się za pomocą Discord lub utworzyć nowe konto
  3. Wybrać plan subskrypcji:
Plan Cena Fast GPU Relax GPU Video Relax
Basic 10 USD/mies. 3,3 godz.
Standard 30 USD/mies. 15 godz. Bez limitu
Pro 60 USD/mies. 30 godz. Bez limitu Tak
Mega 120 USD/mies. 60 godz. Bez limitu Tak

Wskazówka eksperta: Warto zacząć od planu Standard (30 USD/mies.). Nieograniczony tryb Relax jest niezbędny do eksperymentowania — godziny w trybie Fast szybko się wyczerpią podczas nauki.

Pierwszy prompt

Należy otworzyć interfejs webowy pod adresem midjourney.com/imagine i wpisać:

A golden retriever sitting in autumn leaves, soft afternoon sunlight

To wszystko. Nie jest potrzebna żadna specjalna składnia. V7 rozumie język naturalny.

Co otrzymamy: Cztery warianty golden retrievera w jesiennej scenerii. Następnie można:

  • Upscale: kliknąć U1–U4, aby wygenerować wersję w wysokiej rozdzielczości
  • Vary: kliknąć V1–V4, aby stworzyć subtelne warianty
  • Reroll: wygenerować cztery nowe warianty z tym samym promptem

Interfejs webowy a Discord

Funkcja Interfejs webowy Discord
Łatwość obsługi Łatwiejszy Wyższa bariera wejścia
Organizacja obrazów Wbudowana galeria Rozproszone po kanałach
Generowanie wideo Pełne wsparcie Niedostępne
Edycja promptów Interfejs graficzny Polecenia tekstowe
Społeczność Zakładka Explore Przeglądanie kanałów
Rekomendacja Zacznij tutaj Dla zaawansowanych

Interfejs webowy jest obecnie podstawowym sposobem korzystania z platformy. Discord działa, ale nie oferuje generowania wideo i ma mniej intuicyjny przepływ pracy.


Kluczowe pojęcia

Jak działają prompty

Każdy prompt w Midjourney przechodzi przez następujący proces:

Your Text Prompt
      
[Text Encoder]  Converts words to mathematical embeddings
      
[Diffusion Model]  Generates image from noise, guided by embeddings
      
[Upscaler]  Increases resolution and detail
      
Final Image

Co to oznacza w praktyce:

  1. Kolejność słów ma znaczenie: wcześniejsze słowa mają większy wpływ niż późniejsze
  2. Konkretność wygrywa: „golden hour sunlight casting long shadows” działa lepiej niż „nice lighting”
  3. Sprzeczności wprowadzają chaos: „dark, bright, moody, cheerful” wzajemnie się znosi
  4. Mniej często znaczy więcej: 50–150 tokenów zazwyczaj daje lepsze wyniki niż 300+

Ekonomia tokenów

Midjourney nie widzi słów — widzi tokeny (w przybliżeniu fragmenty wyrazów).

Liczba tokenów Efekt Najlepsze zastosowanie
10–30 Bardzo otwarta interpretacja Abstrakcja, eksperymenty
30–80 Zrównoważona kontrola Większość promptów
80–150 Szczegółowa kontrola Konkretne sceny
150+ Malejące korzyści Może powodować konflikty

Wskazówka eksperta: Jeśli prompt przekracza 150 tokenów, prawdopodobnie jest zbyt szczegółowy. Warto ograniczyć nadmiar przymiotników.

Sygnały jakości

V7 silnie reaguje na określone wzorce opisowe:

Oświetlenie (największy wpływ): - „golden hour light casting long shadows across weathered stone” - „Rembrandt lighting with soft fill from camera left” - „bioluminescent glow illuminating the fog”

Materiały i tekstury: - „oxidized copper with verdigris patina” - „worn leather showing decades of use” - „translucent jade catching the light”

Atmosfera i nastrój: - „melancholic twilight atmosphere” - „oppressive industrial ambiance” - „ethereal dreamlike quality”

Techniczne terminy fotograficzne: - „shot on medium format, shallow depth of field” - „85mm lens, f/1.8 aperture” - „anamorphic lens flare, 2.39:1 aspect”


Hierarchia promptu

Każdy skuteczny prompt opiera się na hierarchii. Słowa na szczycie mają największy wpływ.

┌─────────────────────────────────────────────────┐
  1. SUBJECT (who/what)           Most important 
     "elderly fisherman"                          
├─────────────────────────────────────────────────┤
  2. SUBJECT DETAILS (descriptors)               
     "weathered face, silver beard, kind eyes"   
├─────────────────────────────────────────────────┤
  3. CONTEXT (where/when)                        
     "on a wooden dock at dawn"                  
├─────────────────────────────────────────────────┤
  4. STYLE/MOOD (how it feels)                   
     "documentary photography, contemplative"     
├─────────────────────────────────────────────────┤
  5. TECHNICAL (camera/lighting)                 
     "shot on Leica, natural morning light"      
├─────────────────────────────────────────────────┤
  6. PARAMETERS (--ar, --s, etc.)   Fine-tuning 
     "--ar 3:2 --s 100 --v 7"                    
└─────────────────────────────────────────────────┘

Szablon promptu

[SUBJECT] [SUBJECT DETAILS], [CONTEXT], [STYLE/MOOD], [TECHNICAL] --parameters

Przykład zastosowania hierarchii:

An elderly fisherman with a weathered face and silver beard, standing on a
wooden dock at dawn, documentary photography style, contemplative mood,
shot on Leica M11 with natural morning light, soft mist rising from the water
--ar 3:2 --s 100 --v 7

Czego większość użytkowników nie dostrzega: Zaczynają od stylu („beautiful cinematic photo of…”) zamiast od podmiotu. V7 przypisuje dużą wagę początkowym tokenom — na pierwszym miejscu powinien znajdować się obiekt, który faktycznie ma się pojawić na obrazie.


Wybór wersji

V8 Alpha (17 marca 2026)

V8 to model nowej generacji Midjourney, obecnie w fazie testów alfa na alpha.midjourney.com.21

Mocne strony: - Generowanie obrazów ~5x szybsze niż w V7 - Znacząco ulepszone podążanie za instrukcjami i spójność - Natywna rozdzielczość 2K dzięki parametrowi --hd - Najlepsze dotychczas renderowanie tekstu (w promptach należy używać „cudzysłowów”) - Ulepszone rozumienie estetyki dzięki personalizacji, srefs i Moodboards - Tryb dodatkowej spójności przez --q 4 - Pełna wsteczna kompatybilność z profilami personalizacji V7, Moodboards i srefs

Tryby generowania:

Tryb Szybkość Koszt Najlepszy do
Fast ~5x szybciej niż V7 1x Standardowy przepływ pracy
--hd 4x wolniej 4x Natywna rozdzielczość 2K
--q 4 4x wolniej 4x Dodatkowa spójność
--sref / Moodboard 4x wolniej 4x Generowanie sterowane stylem

Znane ograniczenia (alfa): - Tryb Relax jeszcze niedostępny — nowa infrastruktura serwerowa w trakcie budowy - Użytkownicy planów Basic/Standard mogą korzystać wyłącznie z trybu Fast - Promptowanie obrazem i wariacje mogą działać inaczej niż w V7

Nowe funkcje interfejsu: - Tryb konwersacyjny dla naturalnego dialogu - „Grid Mode” do pracy z dużymi zestawami obrazów - Ustawienia w panelach bocznych (nie zasłaniają już widoku)

Użycie:

a weathered lighthouse on volcanic cliffs at golden hour,
dramatic clouds, crashing waves --v 8 --hd

Kiedy używać V8: - Gdy zależy na najszybszym generowaniu - Do obrazów z dużą ilością tekstu - Gdy spójność ma kluczowe znaczenie - Aby wykorzystać natywną rozdzielczość 2K

V7 (domyślny od czerwca 2025)

V7 to obecny flagowy model Midjourney, wydany 3 kwietnia 2025.2

Mocne strony: - Rozumienie języka naturalnego (warto pisać zdaniami, nie słowami kluczowymi) - Najlepszy dotychczas fotorealizm - Znacząco ulepszone renderowanie tekstu - Lepsza anatomia człowieka (dłonie, sylwetki) - Poprawione relacje przestrzenne - Personalizacja domyślnie włączona

Tryby generowania:

Tryb Szybkość Koszt Najlepszy do
Turbo Najszybszy 2x normalny Finalne rendery, gdy liczy się czas
Fast Normalny 1x Standardowy przepływ pracy
Relax W kolejce W cenie Eksploracja, nauka
Draft 10x szybciej 0,5x Szybka iteracja

Kiedy używać V7: - Fotorealistyczne obrazy - Prompty ze złożonym językiem naturalnym - Renderowanie tekstu - Gdy jakość jest najważniejsza

Niji 7 (styczeń 2026)

Niji 7 to wyspecjalizowany model anime/manga, wydany 9 stycznia 2026.3

Mocne strony: - Krystalicznie czyste oczy, odbicia i drobne detale tła3 - Poprawiona spójność złożonych póz i konfiguracji z wieloma kończynami - Bardziej dosłowna interpretacja promptów — precyzyjnie obsługuje konkretne pozycje kolorów i fryzury - Lepsze renderowanie tekstu - Ulepszona wydajność --sref ze znacząco zmniejszonym dryftem stylu3 - Czysta, płaska estetyka linii zaprojektowana z myślą o podkreśleniu poprawionej jakości konturu

Ograniczenia: - --cref NIE jest obsługiwany — zespół zapowiada „potężniejszą tajemniczą niespodziankę” jako alternatywę3 - Personalizacja (--p) i Moodboards w pełni obsługiwane od 26 lutego 202619 - Bardziej dosłowny niż poprzednie wersje Niji — warto dostosować nastrojowe prompty

Wkrótce: - Nowy system referencji postaci mający zastąpić --cref (oczekuje się, że przewyższy możliwości --cref)

Użycie:

A determined young mage with crimson hair, casting fire magic,
intense expression, ancient library background --niji 7

Kiedy używać Niji 7: - Ilustracje w stylu anime i manga - Projektowanie postaci - Ilustracje o wschodniej estetyce - Gdy zależy na czystszym konturze

Niji 6 (starszy model)

Nadal dostępny dla zachowania wstecznej kompatybilności.

Kiedy używać Niji 6: - Potrzebne są presety stylów (--style expressive, --style cute, --style scenic) - Przepływ pracy zależy od --cref - Preferowana jest łagodniejsza, mniej dosłowna interpretacja

Style:

--niji 6 --style expressive  # Dynamic, stylized
--niji 6 --style cute        # Kawaii aesthetic
--niji 6 --style scenic      # Background focus
--niji 6 --style original    # Classic Niji look

Porównanie wersji

Funkcja V7 Niji 7 Niji 6
Fotorealizm Doskonały Nie dotyczy Nie dotyczy
Anime Dobry Doskonały Doskonały
Język naturalny Najlepszy Dobry Umiarkowany
Renderowanie tekstu Najlepsze Dobre Ograniczone
--oref Tak Nie Nie
--cref Nie Nie Tak
--sref Tak Tak (najlepszy) Tak
--p Tak Tak (lut. 2026)19 Opcjonalnie
Presety stylów Nie Nie Tak

Status rozwoju V8 (marzec 2026)

Według stanu na godziny konsultacyjne 4 marca 2026, V8 jest funkcjonalnie kompletny i gotowy do uruchomienia.18 Proces destylacji (optymalizacja szybkości) ma się właśnie rozpocząć i trwa około tygodnia; po jego zakończeniu V8 zostanie udostępniony jako opcjonalny, niedomyślny model na około 30-dniową fazę pre-alfa, zanim zastąpi V7 jako domyślny.1618 Przewodnicy i moderatorzy rozpoczęli wewnętrzne testy pod koniec stycznia, z licznymi sesjami oceny społecznościowej w pierwszej połowie lutego.912

Potwierdzone funkcje V8: - Natywna rozdzielczość 2K (2048px) — eliminuje pośrednika w postaci upscalera, zapewniając rzeczywiście ostrzejszy obraz14 - Ogromne ulepszenia renderowania tekstu (najsłabszy punkt V7)14 - Lepsze generowanie złożonych tematów (stworzenia, centaury, nietypowa anatomia) - Kompletna przebudowa architektury (nowa baza kodu, obsługa natywna od 64px do 2048px+)14 - Style references, Moodboards, personalizacja, parametr weird — wszystko obsługiwane12 - Style Creator i profile internetowe do udostępniania stylów w społeczności11 - Wbudowane możliwości Upscale i edycji12 - Nowy przepływ tworzenia: 64 obrazy w 256px do szybkiej eksploracji, potem zawężenie i przeskalowanie najlepszych10 - Przejście infrastruktury z TPU na GPU z PyTorch (lepiej wspierana baza kodu, szybsza rekrutacja)11 - Wariant V8 „mini” zaprojektowany dla sprzętu niższej klasy11 - Dążenie do generowania podglądu w czasie rzeczywistym - Zyski szybkości: znaczące nawet dla użytkowników Turbo, a dramatyczne dla przepływów pracy bez Turbo18

Zastrzeżenia dotyczące premiery: - Promptowanie obrazem i wariacje mogą działać inaczej podczas początkowego wdrożenia18 - Tryb Relax nie będzie dostępny przy premierze V8 — użytkownicy planów Basic i Standard będą musieli korzystać wyłącznie z trybów Fast lub Turbo w początkowym okresie20 - Niektóre funkcje będą dopracowywane na podstawie opinii użytkowników po premierze18

Harmonogram (stan na 13 marca 2026): - Testy wewnętrzne: styczeń 20269 - Sesje oceny: początek–połowa lutego 202612 - Finalna runda oceny (kalibracja personalizacji V8): 20 lutego 202620 - Funkcjonalnie kompletny: potwierdzone 4 marca 202618 - Proces destylacji: ma się rozpocząć (~1 tydzień)18 - Premiera: oczekiwana w połowie marca 2026 jako opcjonalny, niedomyślny1618 - Pre-alfa: ~30 dni po udostępnieniu opcjonalnym, potem staje się domyślny16 - Ulepszenia aplikacji mobilnej planowane po premierze V89 - Funkcjonalność 3D z ruchem kamery i zmianą kadru w fazie rozwoju9

Co dalej po V8: - Model edycyjny (pierwszy priorytet po premierze V8)18 - Model wideo V2 (nowy klaster obliczeniowy przybywający w marcu 2026 umożliwi trenowanie znacznie większych modeli wideo)18 - Projekty sprzętowe: cztery w toku, w tym urządzenie noszone i projekt montażowy na skalę magazynową10 - Rozszerzenie trybu wsadowego z systemem uczenia się preferencji użytkownika9 - Modele AI działające w czasie rzeczywistym jako cel długoterminowy9


Proporcje obrazu

Parametr --ar ustawia wymiary obrazu. Domyślnie 1:1 (kwadrat).

Popularne proporcje

Proporcje Wymiary Zastosowanie
1:1 Kwadrat Media społecznościowe, ikony
4:5 Portret Instagram, urządzenia mobilne
5:4 Poziomy Pulpit, prezentacje
16:9 Panoramiczny YouTube, prezentacje
6:11 Wysoki portret Tapety na telefon, pionowe plakaty
9:16 Pionowy Stories, TikTok, urządzenia mobilne
21:9 Ultraszeroki Kinowy, filmowy
3:2 Klasyczny Wydruki fotograficzne
2:3 Portret Wydruki pionowe

Rekomendacje dla poszczególnych platform

Platforma Proporcje Uwagi
Instagram Feed 1:1 lub 4:5 4:5 zajmuje więcej miejsca na ekranie
Instagram Story 9:16 Pełny pion
Twitter/X 16:9 lub 1:1 16:9 rozwija się w feedzie
LinkedIn 1.91:1 lub 16:9 Profesjonalny format poziomy
Pinterest 2:3 Format pionowy działa najlepiej
YouTube Thumbnail 16:9 Standardowy format wideo
Tapeta pulpitu 16:9 lub 21:9 Dopasowanie do monitora

Wpływ na kompozycję

Proporcje to nie tylko wymiary — fundamentalnie zmieniają kompozycję.

Szerokie proporcje (16:9, 21:9): - Podkreślają otoczenie i kontekst - Naturalne dla krajobrazów, panoram miejskich - Filmowy charakter - Obiekty stają się częścią sceny

Wysokie proporcje (4:5, 9:16): - Skupiają uwagę na obiekcie - Naturalne dla portretów, produktów - Intymny charakter - Więcej informacji w pionie

Wskazówka eksperta: Do kinowych portretów warto wypróbować 4:5 zamiast oczywistego 16:9. Uzyskuje się kadrowanie skupione na obiekcie z wystarczającą ilością kontekstu dla narracji.


Stylizacja

Parametr --s kontroluje stopień artystycznej interpretacji stosowanej przez V7. Zakres: 0–1000. Domyślnie: 100.

Zakresy stylizacji

Zakres Efekt Najlepszy do
0–50 Minimalna interpretacja Zdjęcia produktowe, dokładność techniczna
50–150 Zrównoważony (domyślny) Użytek ogólny, portrety
150–300 Zauważalny styl Zdjęcia artystyczne, nastrojowe
300–500 Silny styl Ilustracje, koncepcyjne
500–1000 Bardzo stylizowane Abstrakcja, eksperymentalne

Przykłady wizualne

Portrait of a woman, soft window light --s 50
# Result: Clean, realistic, minimal embellishment

Portrait of a woman, soft window light --s 250
# Result: More artistic interpretation, enhanced mood

Portrait of a woman, soft window light --s 600
# Result: Distinctly stylized, dreamlike quality

Schemat decyzyjny

Niska stylizacja (0–100) sprawdza się, gdy: - Tworzy się fotografię produktową - Zależy na fotorealistycznej dokładności - Obrazy techniczne/dokumentacyjne - Prompt powinien być interpretowany dosłownie

Średnia stylizacja (100–300) sprawdza się, gdy: - Ogólna praca twórcza - Fotografia redakcyjna - Pożądane wzmocnienie bez skrajności - Równowaga między realizmem a artystyczną interpretacją

Wysoka stylizacja (300+) sprawdza się, gdy: - Tworzenie ilustracji lub concept artu - Praca abstrakcyjna lub eksperymentalna - Estetyka Midjourney ma dominować - Przesuwanie granic kreatywności

Stylizacja + Style Raw

Aby uzyskać maksymalny fotorealizm, warto połączyć niską stylizację ze --style raw:

Portrait of a businessman, office background --s 50 --style raw --v 7

--style raw instruuje V7, aby minimalizował własną interpretację estetyczną, dając wyniki bliższe dosłownemu odwzorowaniu promptu.


Chaos i Weird

Chaos (–chaos 0–100)

Kontroluje zróżnicowanie między czterema wygenerowanymi obrazami. Domyślnie: 0.

Wartość Efekt
0 Bardzo podobne wyniki
25 Niewielkie różnice
50 Umiarkowana różnorodność
75 Duża różnorodność
100 Maksymalna nieprzewidywalność

Kiedy używać chaos: - Faza eksploracji: --chaos 50-75 aby zobaczyć różnorodne interpretacje - Finalny render: --chaos 0-25 dla spójnych wyników - Szukanie kierunku: wysoki chaos na początku, niski na etapie dopracowywania

Weird (–weird 0–3000)

Wprowadza niekonwencjonalną, niespodziewaną estetykę. Domyślnie: 0.

Zakres Efekt
0 Standardowa estetyka
100–500 Subtelne dziwactwa
500–1000 Zauważalna osobliwość
1000–2000 Bardzo nietypowe
2000–3000 Maksymalna dziwność

Kiedy używać weird: - Surrealistyczne lub oniryczne obrazy - Wyrwanie się z generycznej estetyki AI - Eksploracja concept artu - Gdy „normalne” wydaje się zbyt przewidywalne

Łączenie Chaos i Weird

--chaos 50 --weird 500   # Varied outputs, each slightly quirky
--chaos 100 --weird 0    # Wild variations, normal aesthetic
--chaos 25 --weird 2000  # Similar outputs, all very weird

Wskazówka eksperta: Wysoka wartość weird potrafi wygenerować naprawdę nietypowe obrazy, ale wyniki bywają niespójne. Warto używać tego parametru do eksploracji, a następnie zmniejszyć wartość przy finalnych renderach.


Estetyka eksperymentalna

Parametr --exp dodaje wzbogacone detale, dynamikę i efekty mapowania tonalnego. Zakres: 0-100. Domyślnie: 0.

Poziomy efektu

Wartość Efekt Uwagi
0 Wyłączony (domyślnie) Standardowe renderowanie
5 Subtelne wzbogacenie Bezpiecznie łączy się z innymi parametrami
10 Zauważalny wzrost szczegółów Dobry punkt wyjścia
25 Silny efekt Zalecane maksimum przy łączeniu
50 Bardzo silny Może obniżyć zgodność z promptem
100 Maksymalny Może zdominować –stylize i –p

Co robi –exp

  • Bardziej szczegółowe tekstury i powierzchnie
  • Bardziej dynamiczne, wyraziste kompozycje
  • Wygląd przypominający HDR z mapowaniem tonalnym
  • Wzmocniona atrakcyjność wizualna

Zalecane kombinacje

--exp 10 --s 200           # Enhanced detail, balanced style
--exp 25 --s 100           # Strong exp, controlled stylize
--exp 5 --style raw        # Subtle boost for photorealism

Ostrzeżenie: konflikty parametrów

Przy wysokich wartościach (powyżej 25-50) --exp może: - Zdominować ustawienia --stylize - Nadpisać personalizację (--p) - Zmniejszyć różnorodność obrazów

Wskazówka ekspercka: Warto utrzymywać --exp na poziomie 10-25 w większości prac. Wyższe wartości służą konkretnym efektom stylistycznym, a nie ogólnej poprawie jakości.


Omni Reference

Parametr --oref przenosi cechy podmiotu z obrazu referencyjnego do generowanego obrazu. W V7 zastąpił --cref.

Podstawowe użycie

/imagine A woman in a red dress at a gala --oref [image URL]

Co jest przenoszone: - Twarz i rysy twarzy - Budowa ciała i proporcje - Ubrania i akcesoria - Ogólna tożsamość

Kontrola wagi (–ow)

--ow 0-1000    # Omni weight (default 100)
Waga Efekt
0-30 Luźna inspiracja, pozwala na zmiany stylu
30-60 Umiarkowany wpływ
60-100 Silne podobieństwo (zakres domyślny)
100-300 Bardzo bliskie odwzorowanie
300-1000 Maksymalna wierność

Interakcje wag

Parametr --ow konkuruje z --stylize i --exp o wpływ na wynik. Przy wysokich wartościach stylize lub exp należy zwiększyć --ow, aby zachować spójność z referencją:

# High stylize needs higher ow to keep reference
--oref [url] --ow 200 --s 400

# High exp overwhelms default ow
--oref [url] --ow 300 --exp 25

# If you aren't using high stylize/exp, stay at moderate ow (100-400)

Wskazówka ekspercka: W większości prac bez ekstremalnych wartości --stylize lub --exp warto utrzymywać --ow poniżej 400. Wyższe wartości są potrzebne tylko wtedy, gdy trzeba zachować dokładne rysy twarzy lub detale ubioru przy silnych parametrach stylu.

Najlepsze praktyki

Jakość obrazu referencyjnego ma znaczenie: - Wysoka rozdzielczość, wyraźny podmiot - Zdjęcia frontalne najlepiej sprawdzają się przy twarzach - Spójne oświetlenie w referencji - Minimalne rozpraszanie tłem

Dostosowywanie wagi przy zmianach stylu:

# Photo to anime conversion - lower weight
--oref [photo URL] --ow 40 --niji 7

# Maintaining strict likeness
--oref [photo URL] --ow 200 --v 7

Łączenie ze style reference:

# Subject from one image, style from another
--oref [subject URL] --sref [style URL] --ow 100 --sw 150

Style Reference

Parametr --sref przenosi cechy estetyczne z obrazu referencyjnego.

Podstawowe użycie

/imagine A mountain landscape at sunset --sref [style image URL]

Co jest przenoszone: - Paleta kolorów - Styl oświetlenia - Technika artystyczna - Ogólny nastrój i atmosfera - Tendencje kompozycyjne

Kontrola wagi (–sw)

--sw 0-1000    # Style weight (default 100)
Waga Efekt
0-50 Subtelny wpływ
50-150 Zrównoważone przeniesienie
150-300 Silne dopasowanie stylu
300-1000 Dominujący styl

Wiele referencji stylu

Można łączyć wiele obrazów stylistycznych:

--sref [url1] [url2]

Style mieszają się ze sobą. Warto korzystać z tej opcji do tworzenia unikalnych kombinacji estetycznych.

Najlepsze praktyki

Najlepiej działa z: - Wyraźnymi, spójnymi stylami - Czytelnymi cechami estetycznymi - Obrazami o silnej tożsamości wizualnej

Mniej skuteczne przy: - Bardzo ogólnych zdjęciach - Mieszanych lub niejasnych stylach - Obrazach, w których „styl” nie jest oczywisty

Wskazówka ekspercka: Niji 7 ma najlepszą wydajność --sref. Jeśli przenoszenie stylu jest kluczowe, warto rozważyć użycie Niji 7 nawet przy treściach innych niż anime.

Używanie starych kodów style reference

Kody --sref z ery V6 nie działają bezpośrednio w V7. Należy dodać --sv 4, aby użyć starszych kodów stylu:

/imagine A mountain landscape --sref 123456789 --sv 4
# --sv 4 tells V7 to interpret the code using the V6 style system
/imagine A mountain landscape --sref 123456789 --sv 6
# --sv 6 tells V7 to interpret the code using the V6.1 style system

Uwaga: Choć zapewnia to kompatybilność wsteczną, warto rozważyć ponowne wygenerowanie referencji stylu w V7, aby uzyskać lepsze rezultaty z nowym modelem.


Image Weight

Parametr --iw kontroluje, jak duży wpływ obraz referencyjny ma na generowany wynik.

Podstawowe użycie

/imagine [prompt] [image URL] --iw 1.5

Zakres wag

Zakres: 0-2 (domyślnie 1)

Waga Efekt
0-0,5 Dominuje prompt
0,5-1 Zrównoważony wpływ
1-1,5 Dominuje obraz
1,5-2 Silny wpływ obrazu

Przypadki użycia

Niska waga (0-0,5): Obraz służy jako luźna inspiracja, podczas gdy prompt dominuje

Zrównoważona (0,5-1): Równy wpływ promptu i obrazu

Wysoka waga (1,5-2): Tworzenie wariantów ściśle opartych na obrazie


Moodboards (spersonalizowane profile stylu)

Moodboards pozwalają tworzyć spersonalizowane profile stylu poprzez ocenianie obrazów. Zamiast używać pojedynczego obrazu --sref, buduje się stabilną preferencję estetyczną na podstawie wielu przykładów.7 Można teraz tworzyć wiele nazwanych profili, ustawić profil domyślny, a nawet wybrać kilka aktywnych profili jednocześnie.15

Jak działają Moodboards

  1. Utwórz moodboard na midjourney.com/personalize
  2. Oceń obrazy klikając i przewijając siatkę obrazów (zastąpiło stary system porównań 1v1 z 26 lutego 2026) — konfiguracja jest teraz nawet 5x szybsza1519
  3. Zastosuj za pomocą --p aby użyć domyślnego moodboardu
  4. Zastosuj za pomocą --p [mID] aby użyć konkretnego moodboardu
  5. Nazywaj i organizuj wiele profili dla różnych projektów lub współpracowników15

Budowanie stabilnego profilu

Oceny Stabilność
40 Minimum dla użytecznego profilu15
200 Dość stabilny, wiarygodne wyniki15
2 000 Maksymalne dopracowanie, najlepsza spójność15

Wskazówka ekspercka: Warto ocenić co najmniej 200 obrazów, aby uzyskać wiarygodny moodboard. Należy uwzględnić zarówno polubienia, JAK I odrzucenia — odrzucenia pomagają Midjourney zrozumieć, czego unikać. Można wybrać kilka aktywnych profili jednocześnie, aby uzyskać mieszaną estetykę.15

Używanie Moodboards

/imagine A forest path at dawn --p
# Uses your default moodboard

/imagine A forest path at dawn --p abc123
# Uses specific moodboard with ID abc123

/imagine A forest path at dawn --profile abc123
# Alternative syntax using --profile parameter

Moodboards a Style Reference

Podejście Najlepsze zastosowanie
--sref Jednorazowy styl z pojedynczego obrazu
--p (Moodboard) Spójna osobista estetyka w różnych projektach

Łączenie Moodboards z –sref

Można łączyć moodboardy z kodami style reference w jednym prompcie, aby uzyskać precyzyjną kontrolę:17

/imagine A portrait --p --sref [url] --sw 50
# Your moodboard aesthetic + subtle style reference influence

/imagine A portrait --sref 142710498 --profile drgmjoi 2jrqbw6
# Mix sref codes with multiple moodboard profiles

Można również udostępniać migawki moodboardów jako kody (np. --profile 2jrqbw6), które inni mogą używać, lub udostępnić link do wersji na żywo, która aktualizuje się w miarę dalszego dopracowywania.17


Draft Mode

Draft mode generuje obrazy 10x szybciej za połowę kosztu GPU. Niezbędny przy eksploracji.

Włączanie Draft Mode

/imagine [prompt] --draft

Lub przełącz w ustawieniach interfejsu webowego.

Porównanie Draft i Full

Aspekt Draft Full
Szybkość ~10x szybszy Standardowa
Koszt GPU 50% 100%
Szczegółowość Ograniczona Pełna
Najlepszy do Eksploracji Finalnego wyniku

Przepływ pracy z Draft

1. Draft Mode Exploration (--draft)
   ├── Test 5-10 variations quickly
   ├── Identify promising directions
   └── Note effective parameters

2. Full Render Refinement
   ├── Remove --draft flag
   ├── Apply learned parameters
   └── Fine-tune with --seed

Wskazówka ekspercka: Zawsze warto zaczynać w Draft mode. Oszczędności się kumulują, a eksploracja obejmie więcej opcji. Na pełne renderowanie należy przechodzić dopiero po znalezieniu kierunku wartego realizacji.


Podstawy Image-to-Video

Model wideo V1 Midjourney uruchomiono 19 czerwca 2025, umożliwiając animację obrazów.

Jak to działa

  1. Wybierz dowolny obraz (wygenerowany przez Midjourney lub przesłany)
  2. Kliknij przycisk „Animate”
  3. Wybierz opcje (Auto, Manual, Loop)
  4. Wygeneruj 5-sekundowy klip wideo

Parametry ruchu

--motion low    # Still scenes, slow motion, subtle movement (default)
--motion high   # Big camera motions, larger character movements
--raw           # Reduces creative flair, more prompt control

Porównanie ustawień ruchu

Ustawienie Efekt Najlepsze zastosowanie
Low Subtelny, kinowy ruch Portrety, martwa natura, atmosfera
High Dynamiczny, energetyczny ruch Akcja, krajobrazy, tłumy

Ostrzeżenie: Wysoki poziom ruchu może powodować nierealistyczne lub wadliwe animacje. Należy zaczynać od niskiego poziomu i zwiększać tylko w razie potrzeby.

Koszty i plany

  • Domyślna wielkość partii to 4 filmy na prompt; można zmniejszyć do 1 lub 2 za pomocą --bs #, aby oszczędzać czas GPU
  • Plany Standard, Pro i Mega umożliwiają generowanie wideo HD (tylko w trybie Fast)
  • Tylko plany Pro i Mega oferują Relax Mode dla wideo (tylko SD)
Plan Fast Video Relax Video HD Video
Basic Tak Nie Nie
Standard Tak Nie Tak (tylko Fast)
Pro Tak Tak (tylko SD) Tak (tylko Fast)
Mega Tak Tak (tylko SD) Tak (tylko Fast)

Tryb HD Video

Tryb HD Video (uruchomiony w sierpniu 2025) zapewnia 4x ostrzejszą rozdzielczość — czterokrotnie większą gęstość pikseli, co znacząco podnosi jakość wideo.8

Jak korzystać z HD Video: 1. Najpierw wygeneruj standardowe wideo 2. Kliknij opcję HD na ukończonym filmie 3. Poczekaj na render w wysokiej rozdzielczości

Koszty HD Video: - Kosztuje ok. 3,2x więcej niż standardowe wideo - Dostępne tylko w planach Pro i Mega - Wymaga najpierw standardowego wideo (nie można generować HD bezpośrednio)

Tryb Rozdzielczość Partia 1 Partia 2 Partia 4 (domyślnie)
Standard (SD) Bazowa 2 min 4 min 8 min
High Definition (HD) 4x pikseli 7 min 13 min 26 min

Kiedy używać HD: - Finalne materiały do dostarczenia - Duże wyświetlacze lub projekcje - Prace profesjonalne i komercyjne - Gdy detale w ruchu mają znaczenie

Wskazówka ekspercka: Zawsze warto najpierw testować w SD. HD zajmuje więcej czasu i kosztuje więcej — ulepszać należy tylko najlepsze klipy.


Przedłużanie i zapętlanie

Przedłużanie filmów

Każdy film można przedłużyć o dodatkowe 4 sekundy, maksymalnie 4 razy (do 21 sekund).

Opcje przedłużania: - Auto: Automatycznie kontynuuje film - Manual: Pozwala dostosować prompt przed przedłużeniem

Najlepsze praktyki przy przedłużaniu: - Warto zaplanować łuk narracyjny przed rozpoczęciem - Pierwsze 5 sekund powinno ustanowić scenę - Każde przedłużenie powinno mieć swój cel - Należy pamiętać o tempie — 21 sekund to więcej, niż się wydaje

Tworzenie pętli

Opcja Loop tworzy płynnie zapętlone filmy, w których pierwsza i ostatnia klatka się pokrywają.

Select image  Click "Loop"  Generate

Najlepsze zastosowanie: - Animacje tła - Treści do mediów społecznościowych - Wizualizacje ambientowe - Cinemagraphs

Wskazówki dotyczące lepszych pętli: - Prosty, powtarzalny ruch działa najlepiej - Należy unikać złożonych ruchów kamery - Elementy atmosferyczne (chmury, woda, ogień) zapętlają się naturalnie

Najlepsze praktyki tworzenia wideo

Kiedy warto korzystać z wideo

Dobre kandydatury do animacji wideo: - Sceny atmosferyczne (mgła, deszcz, ogień) - Subtelny ruch (włosy, tkanina, woda) - Krajobrazy z ruchem otoczenia - Portrety z minimalnym ruchem

Mniej idealne do wideo: - Złożone sekwencje akcji - Sceny z wieloma postaciami - Precyzyjna choreografia - Wymagania dotyczące dokładności technicznej

Optymalizacja pod kątem wideo

Przed animowaniem: 1. Najpierw wygeneruj idealny nieruchomy obraz 2. Rozważ, jak poszczególne elementy mogą się poruszać 3. Unikaj złożonych, powiązanych ze sobą obiektów 4. Proste kompozycje animują się lepiej

Dostosowanie promptów:

# Good for video
Lone figure standing on cliff edge, wind blowing cape, dramatic clouds

# Less ideal for video
Group of dancers in synchronized formation, precise movements

Zarządzanie kosztami

Przy 8-krotnym koszcie obrazu wydatki na wideo szybko rosną:

Oszczędny przepływ pracy: 1. Eksploruj w trybie Draft mode (obrazy) 2. Znajdź idealną kompozycję 3. Wygeneruj ostateczny obraz w wysokiej jakości 4. Animuj wyłącznie najlepszą wersję 5. Rozszerzaj tylko w razie konieczności


Realizm kinowy

Najskuteczniejszy wzorzec uzyskiwania fotorealistycznych, kinowych rezultatów.

Szablon kinowy

[Shot type] by [Director], [subject physical description],
[action/pose], [costume/styling], [setting details],
captured with [Camera Body] using [Lens], [lighting description],
[mood/atmosphere summary]
--ar [ratio] --s [value] --p --no anime, cartoon, illustration, painting

Style reżyserów

Reżyser Styl wizualny Najlepiej sprawdza się w
Ridley Scott Atmosferyczny, fakturowy, nastrojowy Sci-fi, dramat kostiumowy, zbliżenia
Denis Villeneuve Epicki rozmach, pustkowia, geometria Krajobrazy, szerokie ujęcia
David Fincher Mroczny, precyzyjny, niepokojący Thrillery, nastrojowe portrety
Roger Deakins Sylwetki, naturalne światło, poetycki Każde ujęcie z dominacją oświetlenia
Alfonso Cuarón Immersyjny, intymny, śledzący Momenty postaci, napięcie
Wes Anderson Symetryczny, pastelowy, kapryśny Stylizowane, wycentrowane kompozycje
Christopher Nolan Skala IMAX, praktyczność, intensywność Akcja, architektura
Terrence Malick Złota godzina, eteryczny, natura Krajobrazy, kontemplacja

Kamery referencyjne

Kamera Estetyka Najlepiej sprawdza się w
RED Komodo Nowoczesne kino cyfrowe Zbliżenia, narracja
ARRI ALEXA Filmowy obraz, bogate kolory Wszystko w kinie
ARRI Alexa Mini Jak ALEXA, mniejsza obudowa Dokument, z ręki
ARRI ALEXA 65 Wielki format, epicka skala Krajobrazy, wrażenie IMAX
RED V-Raptor 8K, ostry, dynamiczny Akcja, wysoki detal
Sony Venice Pełna klatka, wszechstronna Słabe oświetlenie, anamorficzny
Hasselblad Średni format, luksusowy Portrety, moda
Leica M Dalmierz, klasyczny Street, dokument

Dobór obiektywów

Ogniskowa Efekt Najlepiej sprawdza się w
24mm f/1.4 Szeroki, kontekstowy Krajobrazy, ujęcia ustanawiające
35mm f/2.0 Naturalny, wszechstronny Dokument, street
50mm f/1.4 Klasyczny, zbalansowany Ogólne zastosowanie
85mm f/1.8 Portretowy, płytka głębia ostrości Zbliżenia, portrety
105mm f/2.0 Kompresja, intymność Ujęcia twarzy
135mm f/2.0 Maksymalna kompresja Ciasne portrety

Kompletne przykłady kinowe

Portret w zbliżeniu:

Dramatic close-up portrait by Ridley Scott, young woman with pale skin
and auburn hair, intense green eyes staring directly at camera, subtle
freckles across nose, wearing dark wool coat, rain falling around her
face, captured with RED Komodo using 85mm f/1.8 lens, cold blue-silver
lighting with warm practical rim light, melancholic determined atmosphere
--ar 4:5 --s 150 --p --no anime, cartoon, illustration, painting

Szerokie ujęcie kinowe:

Epic wide shot by Denis Villeneuve, lone figure in orange survival suit
walking across endless salt flats, geometric patterns in dried earth,
massive dust storm approaching on horizon, captured with ARRI ALEXA 65
using 24mm f/2.0 lens, harsh afternoon sun creating stark shadows,
desolate apocalyptic atmosphere
--ar 21:9 --s 200 --p --no anime, cartoon, illustration, painting

Uwaga: Nigdy nie używaj imion aktorów. Opisuj osoby fizycznie. „Young woman with pale skin and auburn hair”, a nie „Emma Stone”. Imiona aktorów tworzą efekt doliny niesamowitości.


Fotografia portretowa

Schematy oświetleniowe

Schemat Efekt Ustawienie
Rembrandt Dramatyczny, klasyczny Główne światło pod kątem 45° z boku, tworzy trójkąt pod okiem
Butterfly Glamour, pochlebczy Główne światło nad i z przodu
Split Dramatyczny, tajemniczy Światło z czystego boku
Rim/Edge Separacja, głębia Światło od tyłu
Loop Subtelny cień Lekkie odchylenie od Rembrandta

Szablon portretowy

[Subject description], [expression/emotion], [pose],
[lighting pattern] lighting, shallow depth of field,
[background description], shot on [camera] with [lens]
--ar 4:5 --s 100 --v 7

Przykłady portretów

Portret środowiskowy:

Middle-aged craftsman with salt-and-pepper beard, focused expression,
hands working on leather saddle, Rembrandt lighting from workshop window,
shallow depth of field, blurred tool-filled background, shot on
Hasselblad with 80mm f/1.9, documentary authenticity
--ar 4:5 --s 75 --style raw --v 7

Portret studyjny:

Professional woman in her 30s, confident subtle smile, shoulders
turned slightly, butterfly lighting with soft fill, pure white
seamless background, shot on Phase One with 110mm f/2.8, clean
commercial aesthetic
--ar 4:5 --s 50 --v 7

Fotografia produktowa

Szablon produktowy

[Product] on [surface/platform], [background style],
[lighting setup], commercial photography, high detail,
[brand aesthetic description]
--ar 1:1 --s 50 --v 7 --style raw

Opcje powierzchni i tła

Powierzchnie: - Polerowany marmur (luksus) - Surowy beton (industrialny) - Naturalne drewno (organiczny) - Szczotkowany metal (technologia) - Kolorowy akryl (nowoczesny)

Tła: - Gradient (płynne przejście) - Seamless (jednolity kolor) - Kontekstowe (w użyciu) - Abstrakcyjne (artystyczne)

Przykłady produktów

Luksusowy kosmetyk:

Minimalist perfume bottle with gold cap on polished black marble surface,
gradient background from deep purple to black, dramatic rim lighting with
soft front fill, commercial photography, high detail, premium luxury
aesthetic, subtle reflections on marble
--ar 1:1 --s 25 --v 7 --style raw

Produkt technologiczny:

Wireless earbuds case open showing earbuds inside, floating on
pure white seamless background, soft even lighting from all sides,
commercial product photography, high detail, clean Apple-style
minimalism, subtle shadow beneath
--ar 1:1 --s 50 --v 7 --style raw

Fantasy i sci-fi

Szablon fantasy

[Character/scene description], [fantasy world details],
[magical elements], [lighting style],
[art style: painterly | concept art | illustration],
[artist influence if applicable]
--ar 16:9 --s 500 --weird 100 --v 7

Przykłady fantasy

Epickie fantasy:

Ancient elven queen seated on crystalline throne in vast cavern hall,
iridescent robes flowing with captured starlight, bioluminescent
flowers floating around her, massive glowing runes carved into
obsidian walls, ethereal volumetric lighting, painterly fantasy
illustration influenced by Craig Mullins and Alphonse Mucha
--ar 16:9 --s 600 --weird 150 --v 7

Mroczne fantasy:

Battle-scarred knight in tarnished armor standing in ruined cathedral,
sword planted in cracked stone floor, pale moonlight streaming through
shattered rose window, crows circling above, mist swirling at feet,
dark atmospheric concept art, Beksinski and Zdzisław influence
--ar 16:9 --s 400 --weird 200 --v 7

Szablon sci-fi

[Subject/scene], [technology details], [environment],
[lighting: neon | holographic | industrial | sterile],
[aesthetic: cyberpunk | hard sci-fi | retro-futurism],
[mood description]
--ar 21:9 --s 300 --v 7

Przykłady sci-fi

Cyberpunk:

Solo mercenary in worn tactical gear navigating rain-soaked neon alley,
holographic advertisements flickering overhead, steam rising from
street grates, distant megastructures visible through smog, cyan and
magenta neon reflections on wet pavement, Blade Runner cyberpunk
aesthetic, oppressive urban atmosphere
--ar 21:9 --s 350 --v 7

Twarde sci-fi:

Interior of generation ship agricultural bay, massive cylindrical
space with terraced farms curving overhead, artificial sun strip
running along central axis, workers in utilitarian jumpsuits tending
crops, visible structural engineering, hard science fiction aesthetic,
The Expanse influence, functional yet beautiful
--ar 21:9 --s 250 --v 7

Anime z Niji 7

Cechy charakterystyczne Niji 7

Niji 7 generuje czystsze, bardziej płaskie ilustracje z ulepszoną kreską. Interpretuje prompty bardziej dosłownie niż poprzednie wersje.

Szablon Niji 7

[Character description], [pose/action], [expression],
[setting/background], [specific style notes],
[color palette]
--niji 7 --ar [ratio]

Przykłady Niji 7

Scena akcji:

Young mage with flowing crimson hair and determined golden eyes,
casting powerful fire spell with both hands raised, intense focused
expression, ancient library crumbling around her, debris floating
in magical energy, dynamic diagonal composition, warm orange and
red color palette with cool blue shadows
--niji 7 --ar 3:4

Portret postaci:

Elegant noblewoman with silver hair in elaborate updo, wearing dark
blue Victorian-inspired gown with gold embroidery, subtle knowing
smile, half-body portrait, ornate palace balcony background with
moonlit garden visible, soft romantic atmosphere, detailed lace
and fabric textures
--niji 7 --ar 4:5

Transfer stylu z Niji 7

Niji 7 oferuje najlepszą wydajność --sref:

[Your prompt] --niji 7 --sref [style image URL] --sw 150

Zacznij od --sw 150 i dostosuj: - Niżej (50–100) dla subtelnego wpływu - Wyżej (200–300) dla silnego dopasowania stylu

Migracja z Niji 6

Podejście Niji 6:

anime girl, beautiful, detailed eyes, colorful --niji 6 --style expressive

Podejście Niji 7:

Young woman with vibrant teal hair and large expressive amber eyes,
wearing casual summer dress, cheerful smile, urban cafe background,
afternoon sunlight, contemporary anime style
--niji 7

Kluczowe zmiany: - Twórz pełne opisy, nie listy słów kluczowych - Bądź bardziej dosłowny i precyzyjny - Presety stylów nie istnieją — opisz to, czego oczekujesz - Używaj --sref dla spójności stylu


Architektura

Szablon architektury

[Building/space type], [architectural style],
[time of day/lighting], [weather/atmosphere],
[perspective: eye-level | aerial | interior | detail],
architectural photography, clean lines
--ar 16:9 --s 150 --v 7 --style raw

Style architektoniczne

Styl Cechy charakterystyczne Słowa kluczowe
Brutalizm Surowy beton, masywność, geometria Exposed concrete, monolithic
Minimalizm Czyste linie, biel, oszczędność Negative space, pure forms
Art Deco Ozdobność, geometria, luksus Gold accents, sunburst patterns
Gotyk Łuki ostrołukowe, wertykalność, dramatyzm Flying buttresses, rose windows
Japoński Drewno, papier, integracja z naturą Shoji screens, engawa, zen
Parametryczny Płynność, obliczeniowość, organiczność Zaha Hadid, algorithmic curves

Przykłady architektury

Brutalizm:

Brutalist concrete museum interior with dramatic skylights, afternoon
sun creating strong geometric shadows on exposed concrete walls, vast
empty gallery space with single sculpture, eye-level perspective
showing depth and scale, architectural photography by Hélène Binet
--ar 16:9 --s 100 --v 7 --style raw

Parametryczny:

Futuristic parametric architecture concert hall exterior, flowing white
curves inspired by Zaha Hadid, blue hour lighting with building interior
warmly illuminated, long exposure car light trails on surrounding roads,
wide establishing shot, architectural photography
--ar 16:9 --s 150 --v 7

Abstrakcja i eksperymenty

Szablon abstrakcji

[Concept/emotion to express], [visual elements],
[color palette], [texture/material qualities],
[movement/energy description], abstract composition
--s 750 --weird 500 --chaos 50 --v 7

Przykłady abstrakcji

Abstrakcja emocjonalna:

The feeling of nostalgia dissolving into hope, fragmented memories
reforming as light, soft blues transitioning to warm amber, watercolor
textures bleeding into geometric shapes, gentle upward movement,
abstract emotional landscape
--ar 1:1 --s 800 --weird 750 --chaos 40 --v 7

Abstrakcja fakturowa:

Microscopic landscape of oxidized copper and crystalline salt
formations, verdigris greens and rust oranges, extreme macro detail,
mineral textures catching diffused light, abstract geological patterns
--ar 1:1 --s 500 --weird 300 --v 7

Przekraczanie granic

Aby uzyskać naprawdę eksperymentalne rezultaty: - Warto podnieść --weird powyżej 1000 - Połączyć z --chaos 75+ - Używać abstrakcyjnego, emocjonalnego języka - Odwoływać się do niekonwencjonalnych artystów

The architecture of forgotten dreams, impossible geometries folding
through chromatic space, Escher meets Kandinsky, synesthetic color
relationships, visual music
--ar 1:1 --s 1000 --weird 2000 --chaos 75 --v 7

Ważenie słów

Składnia :: pozwala kontrolować nacisk na poszczególne elementy.

Składnia

word::2      # Double emphasis
word::1.5    # 50% more emphasis
word::1      # Normal (default)
word::0.5   # Half emphasis
word::-1     # Negative (avoid)

Przykłady

ethereal::2 portrait of a warrior, dramatic lighting::1.5, mist::0.5

Ten prompt: - Silnie akcentuje eteryczną jakość - Umiarkowanie wzmacnia dramatyczne oświetlenie - Redukuje obecność mgły

Kiedy stosować ważenie

Przydatne, gdy: - Trzeba precyzyjnie wyważyć elementy - Chcemy stłumić niechciane interpretacje - Zależy nam na podkreśleniu kluczowych cech

Lepiej unikać, gdy: - Dopiero eksplorujemy koncepcję - Prosty prompt działa bez tego - Nie wiadomo, co konkretnie wyróżnić

Wskazówka ekspercka: Ważenie słów to narzędzie do rafinacji, nie punkt wyjścia. Najpierw należy dopracować podstawowy prompt, a dopiero potem użyć ważenia do precyzyjnego dostrojenia.


Negatywne prompty

Parametr --no wyklucza elementy z generowanego obrazu.

Podstawowe użycie

/imagine Beautiful landscape --no people, text, watermark

Skuteczne wykluczenia

Cel Wykluczenie
Fotorealizm --no anime, cartoon, illustration, painting, drawing
Czysty obraz --no text, watermark, signature, frame, border
Naturalny wygląd --no oversaturated, HDR, artificial
Poważny ton --no cute, chibi, kawaii
Prosta kompozycja --no busy, cluttered, crowded

Najlepsze praktyki

Tak: - Używać konkretnych, jednoznacznych określeń - Reagować na rzeczywiste problemy w wynikach - Ograniczać listę do 3–5 pozycji

Nie: - Tworzyć wyczerpujących list wszystkiego, czego nie chcemy - Używać ogólnikowych określeń („bad”, „ugly”) - Wykluczać elementów, które i tak raczej się nie pojawią

Kinowy zestaw wykluczeń

Aby uzyskać spójne, fotorealistyczne rezultaty:

--no anime, cartoon, illustration, painting, drawing, sketch, CGI, 3D render

Kontrola ziarna (seed)

Ziarno umożliwia powtarzalność i kontrolowane wariacje.

Podstawowe użycie

/imagine [prompt] --seed 12345

Ten sam prompt + to samo ziarno = bardzo zbliżony wynik.

Znajdowanie ziarna

Po wygenerowaniu obrazu można kliknąć informacje o obrazie, aby sprawdzić użyte ziarno. Warto je zapisać w celu późniejszego odtworzenia.

Przepływy pracy z ziarnem

Przepływ wariacyjny: 1. Wygenerować obraz z losowym ziarnem 2. Znaleźć satysfakcjonujący wynik 3. Zanotować ziarno 4. Wprowadzić drobne zmiany w prompcie, zachowując to samo ziarno 5. Porównać wariacje

Spójność serii:

Scene in morning light --seed 54321
Scene in afternoon light --seed 54321
Scene in evening light --seed 54321

Użycie tego samego ziarna w powiązanych promptach zapewnia bardziej spójne kompozycje.


Kompozycja z wieloma podmiotami

Złożone sceny z wieloma podmiotami wymagają starannej konstrukcji promptu.

Podejście hierarchiczne

Podmioty należy wymieniać w kolejności od najważniejszego:

[Primary subject], [secondary subject], [tertiary subject],
[their relationship/interaction], [setting], [style]

Język przestrzenny

Warto stosować precyzyjne opisy przestrzenne:

In the foreground, [subject A]
In the middle ground, [subject B]
In the background, [subject C]

Lub:

On the left, [subject A]
In the center, [subject B]
On the right, [subject C]

Przykład

Elderly grandmother and young granddaughter baking together in
sunlit kitchen, grandmother guiding child's hands rolling dough,
flour dusting the wooden counter, warm afternoon light from window,
vintage kitchen appliances in background, intimate family moment,
documentary photography style
--ar 3:2 --s 100 --v 7

Renderowanie tekstu

V7 znacząco poprawił renderowanie tekstu na obrazach.

Najlepsze praktyki

Krótki tekst to podstawa: - Pojedyncze słowa działają najlepiej - Krótkie frazy (2–4 słowa) zwykle się udają - Długie zdania często zawodzą

Cudzysłów jest kluczowy:

Neon sign reading "OPEN" in storefront window

Określenie typografii:

Vintage poster with "JAZZ NIGHT" in art deco typography

Przykłady z tekstem

Szyldy:

Rainy city street at night, neon diner sign reading "EAT" glowing
red through rain-streaked window, film noir atmosphere
--ar 16:9 --s 150 --v 7

Typografia:

Minimalist book cover design, large serif typography reading "THE END"
centered on cream paper texture, literary fiction aesthetic
--ar 2:3 --s 100 --v 7

Ograniczenia

Renderowanie tekstu wciąż sprawia trudności w przypadku: - Długich zdań - Złożonych krojów pisma - Drobnego tekstu na zatłoczonych obrazach - Wielu elementów tekstowych jednocześnie

Wskazówka ekspercka: Jeśli tekst jest kluczowy, lepiej wygenerować obraz bez tekstu i dodać typografię na etapie postprodukcji.


Pętla iteracji

Profesjonalny przepływ pracy w Midjourney:

Faza 1: Eksploracja (Draft mode)

1. Enable Draft mode (--draft)
2. Write basic prompt with core concept
3. Generate 4-8 batches quickly
4. Identify promising directions
5. Note what works/doesn't

Cel: Znaleźć kierunek, nie perfekcję. Liczy się szybkość.

Faza 2: Rafinacja

1. Disable Draft mode
2. Take best concepts from Phase 1
3. Add specific details
4. Adjust parameters (--s, --chaos, etc.)
5. Generate in Fast mode
6. Compare variations

Cel: Zawęzić wybór do 2–3 mocnych opcji.

Faza 3: Dopracowanie

1. Select best candidate
2. Note the seed
3. Make micro-adjustments to prompt
4. Use same seed for consistency
5. Upscale final choice

Cel: Wypolerować zwycięzcę.

Rozkład czasu

Faza Czas Tryb
Eksploracja 60% Draft
Rafinacja 30% Fast
Dopracowanie 10% Fast

Większość użytkowników odwraca te proporcje, poświęcając zbyt wiele czasu na dopracowywanie pierwszych prób. Warto eksplorować więcej, a dopracowywać mniej.

Describe w interfejsie webowym

Wystarczy kliknąć prawym przyciskiem myszy na dowolny obraz w interfejsie webowym i wybrać „Describe”, aby wygenerować cztery prompty tekstowe na podstawie obrazu.17 To nieocenione narzędzie do odtwarzania stylów, które nas inspirują — można opisać obraz ze strony Explore, a następnie zmodyfikować uzyskane prompty zgodnie z własną wizją. Prompty automatycznie znikają po odświeżeniu strony.


Zarządzanie kosztami

Zrozumienie czasu GPU

  • Fast Mode: Wykorzystuje godziny GPU z subskrypcji
  • Relax Mode: Bez limitu, ale w kolejce (plany Standard+)
  • Draft Mode: Połowa kosztu GPU w porównaniu ze standardowym trybem
  • Video: ~8x koszt w porównaniu z obrazami

Wartość subskrypcji

Plan Godziny Fast Relax Video Relax $/godz. GPU
Basic 3,3 godz. Nie Nie 3,03 $
Standard 15 godz. Tak Nie 2,00 $
Pro 30 godz. Tak Tak 2,00 $
Mega 60 godz. Tak Tak 2,00 $

Wniosek: Plany Standard+ oferują znacznie lepszą wartość za godzinę GPU oraz nieograniczony Relax.

Strategie oszczędzania

  1. Eksploracja w Draft mode — połowa kosztu, 10x szybciej
  2. Relax do eksploracji — bez dodatkowych kosztów (Standard+)
  3. Fast tylko na finały — tylko gdy liczy się jakość
  4. Grupowanie podobnych promptów — wydajniejsze niż pojedyncze generowanie
  5. Planowanie przed generowaniem — najpierw przemyśleć, potem generować

Szacowanie zużycia

Działanie Przybliżone minuty GPU
4 obrazy (standard) ~1 min
4 obrazy (draft) ~0,5 min
Upscale ~0,5 min
Video (4x 5 sek.) ~8 min

Rozwiązywanie problemów

Najczęstsze problemy

Problem Przyczyna Rozwiązanie
Rozmazane twarze Niskie –s lub konflikt stylów Użyć --style raw, dodać więcej szczegółów w prompcie
Nieprawidłowe proporcje Domyślne 1:1 Jawnie określić --ar
Zbyt artystyczny efekt Wysokie –s Obniżyć do 50–100
Zbyt dosłowna interpretacja Niskie –s Podnieść do 200+
Niespójne wyniki Niski chaos Użyć --seed dla spójności
Styl przytłacza treść Wysokie –sw Zmniejszyć wagę --sw
Tekst się nie renderuje Ograniczenie V7 Skrócić tekst, użyć cudzysłowu
Zniekształcone dłonie Ograniczenie AI Przyciąć lub wygenerować ponownie
Nie można znaleźć pokojów Funkcja usunięta 26 lutego 202616 Zamiast tego używać folderów i strony Organize

Konflikty parametrów

Unikać łączenia: - --style raw + wysokie --s (sprzeczne) - --v 7 + --niji (należy wybrać jedno) - Wielu silnych referencji z wagą 100% - --exp 50+ + --stylize (exp dominuje) - --exp 50+ + --p (exp nadpisuje)

Dobrze współgrają: - --oref + --sref z umiarkowanymi wagami - --chaos + --seed (zróżnicowane, ale powtarzalne) - --style raw + niskie --s (maksymalny fotorealizm) - --exp 10-25 + --s 100-200 (wzmocnione, kontrolowane)

Gdy nic nie działa

  1. Uprościć — usunąć parametry, skrócić prompt
  2. Rozdzielić — przetestować podmiot i styl osobno
  3. Szukać ziarna — wygenerować wiele wariantów, znaleźć dobre ziarno, iterować
  4. Referencja — użyć --sref z obrazem pokazującym zamierzony cel
  5. Wersja — wypróbować inną wersję modelu

Migracja między wersjami

Migracja z V6 do V7

Stary styl V6:

portrait, beautiful woman, dramatic lighting, 8k, detailed, masterpiece

Nowy styl V7:

A contemplative portrait of a woman in her 30s, Rembrandt lighting
casting gentle shadows across her face, medium format photography
aesthetic with shallow depth of field

Kluczowe zmiany

Aspekt V6 V7
Styl promptów Słowa kluczowe Język naturalny
Słowa jakościowe Przydatne W większości ignorowane
Referencja postaci --cref --oref
Personalizacja Opcjonalna Domyślna
Domyślne zachowanie Stylizowane Bardziej dosłowne

Czego unikać

  • Nadmiar słów kluczowych („beautiful, stunning, amazing”)
  • Modyfikatory jakości („8k, ultra detailed, masterpiece”)
  • Używanie --cref (teraz należy stosować --oref)
  • Krótkie prompty rozdzielone przecinkami

Co warto zacząć stosować

  • Pisanie pełnych zdań
  • Opisywanie tego, co widać, a nie tego, czego się oczekuje
  • Precyzyjne określanie oświetlenia, materiałów i nastroju
  • Używanie terminologii fotograficznej (aparat/obiektyw)
  • Wykorzystanie personalizacji (--p)

Ściągawka parametrów

MODELS
--v 8           V8 Alpha (~5x faster, native 2K, best text) (Mar 2026)
--v 7           Default, best overall (June 2025)
--niji 7        Anime/manga (Jan 2026, best coherence)
--niji 6        Anime/manga (legacy, has --style options)
--draft         Fast iteration, 10x faster, half cost

V8-SPECIFIC
--hd            Native 2K resolution (4x cost)
--q 4           Extra coherence mode (4x cost)

ASPECT
--ar 16:9       Widescreen
--ar 21:9       Cinematic ultrawide
--ar 4:5        Portrait (Instagram)
--ar 6:11       Tall portrait (phone wallpapers)
--ar 9:16       Vertical (Stories)
--ar 1:1        Square
--ar 3:2        Classic photo
--ar 2:3        Portrait print

STYLE
--s 0-100       Photorealistic
--s 100-300     Balanced
--s 300-1000    Artistic
--style raw     Minimal AI interpretation
--p             Apply personalization (V7 default)

EXPERIMENTAL
--exp 0-100     Enhanced detail (10-25 sweet spot)
--chaos 0-100   Output variety
--weird 0-3000  Unconventional aesthetics

REFERENCES
--oref [url]    Subject/character (V7)
--ow 0-1000     Omni weight (default 100)
--sref [url]    Style transfer
--sw 0-1000     Style weight (default 100)
--iw 0-2        Image weight (default 1)

VIDEO (Web only)
--motion low    Subtle movement (default)
--motion high   Dynamic movement
--raw           More prompt control

QUALITY (V7 values: 1, 2, 4  different from V6)
--q 1           Standard quality (default)
--q 2           Higher detail, 2x cost
--q 4           Maximum detail, 4x cost
--seed [num]    Reproducibility

NEGATIVE
--no [items]    Exclude elements

Historia zmian

Data Zmiana Źródło
2026-03-17 Uruchomienie V8 Alpha na alpha.midjourney.com. ~5x szybsze generowanie, natywne 2K dzięki --hd, zwiększona spójność przez --q 4, radykalnie ulepszone renderowanie tekstu i wykonywanie instrukcji. Obsługiwane parametry: --chaos, --weird, --exp, --raw, --stylize. Zadania z --hd/--q 4/sref/Moodboard kosztują 4x więcej. Tryb Relax niedostępny. Pełna wsteczna kompatybilność z profilami/moodboardami/sref V7. Nowy interfejs: tryb konwersacyjny, Grid Mode, panel ustawień boczny. 21
2026-03-13 Dodano ostatnią rundę ocen V8 (20 lutego, kalibracja personalizacji). Dodano informację o niedostępności trybu Relax przy premierze V8. Skorygowano wartości parametru jakości V7 (1, 2, 4). Dodano --sv 6 dla kodów sref V6.1. V8 wciąż niewydany na dzień 13 marca. 20
2026-03-12 Potwierdzono pełną obsługę personalizacji i Moodboards w Niji 7 (aktualizacja z 26 lutego). Zaktualizowano opis interfejsu personalizacji (siatka zastępuje porównania 1v1). Usunięto zastrzeżenie „może nie być w pełni dostępne” z sekcji Niji 7. V8 wciąż niewydany na dzień 12 marca. 19
2026-03-07 V8 potwierdzony jako funkcjonalnie kompletny i gotowy do premiery (spotkanie biurowe 4 marca). Zaktualizowano harmonogram na połowę marca. Dodano zastrzeżenia premierowe (prompty obrazowe/wariacje mogą działać inaczej). Dodano plan po V8 (model edycji, model wideo V2 z nowym klastrem obliczeniowym). Dodano dokładne koszty minutowe wideo GPU oraz zaktualizowaną tabelę planów z informacjami o HD/Relax z oficjalnej dokumentacji. 18
2026-03-03 Zaktualizowano harmonogram V8 (finalna destylacja pod koniec lutego, wydanie opt-in na początku marca, ~30-dniowa pre-alpha przed ustawieniem jako domyślny). Dodano składnię --profile dla moodboardów i łączenie z kodami --sref. Dodano funkcję Describe na stronie. Dodano usunięcie Rooms (26 lutego). 1617
2026-02-28 Zaktualizowano status V8 (wciąż oczekiwany na 28 lutego, potwierdzona natywna rozdzielczość 2K, przebudowa architektury). Rozszerzono sekcję moodboardów/profili (wiele nazwanych profili, 5x szybsza konfiguracja, doprecyzowane progi stabilności: 40/200/2000). 1415
2026-02-17 Status V8: faza końcowego dopracowywania, liczne sesje ocen w połowie lutego, premiera blisko. Potwierdzone funkcje V8 (referencje stylu, moodboardy, edycja). Dodano proporcje 6:11, wskazówki dotyczące interakcji --ow, aktualizacje platformy webowej (operacje wsadowe, automatyczne czyszczenie parametrów). 1213
2026-02-09 Zaktualizowano status V8 (testy wewnętrzne, sesja ocen, przejście z TPU na GPU, nowy proces tworzenia), rozszerzono szczegóły Niji 7 (dryf --sref, jakość oczu, alternatywa dla --cref) 910
2026-01-20 Dodano sekcję trybu HD Video (4x rozdzielczość, ~3,2x koszt, tylko Pro/Mega) 8
2026-01-17 Dodano status rozwoju V8, sekcję Moodboards, --sv 4 dla starszych kodów sref Skanowanie sieci
2026-01-16 Dodano informacje o planie V7.1, zweryfikowano pokrycie Niji 7 Skanowanie sieci
2026-01-13 Utworzono przewodnik obejmujący V7, Niji 7 i wideo Wiele źródeł
2026-01-09 Wydano Niji 7 z ulepszoną spójnością 3
2025-06-19 Wydano model wideo V1 4
2025-06-17 V7 został modelem domyślnym 2
2025-04-30 Aktualizacja V7: parametr –exp, ulepszenia edytora 5
2025-04-03 Wydano V7 2

Źródła


  1. Midjourney Updates. Oficjalny dziennik zmian i ogłoszenia. 

  2. Midjourney Version Documentation. „Version 7 was released on April 3, 2025, and became the default model on June 17, 2025.” 

  3. Niji V7 Announcement. „Niji V7 is now live” — 9 stycznia 2026. 

  4. V1 Video Model. Generowanie wideo udostępnione 19 czerwca 2025. 

  5. V7 Update, Editor, and –exp. Szczegóły aktualizacji z 30 kwietnia 2025. 

  6. V8 Development Discussion. Dyskusja społeczności na temat treningu V8 i szczegółów planu rozwoju z sesji Q&A Davida Holza. 

  7. Moodboards Feature. Personalizacja Midjourney za pomocą moodboardów i oceniania obrazów. 

  8. HD Video Mode. „HD Video mode delivers 4x sharper AI-generated clips… costs roughly 3.2 times more than SD.” Sierpień 2025. 

  9. Office Hours Jan 22. V8 w fazie końcowego dostrajania, funkcjonalność 3D, plany aplikacji mobilnej, rozszerzenie trybu wsadowego. 

  10. Office Hours Feb 12. Sesja ocen sygnalizująca premierę V8, projekty sprzętowe, badania nad 3D w czasie rzeczywistym. 

  11. V8 Development Overview. Przejście z TPU na GPU/PyTorch, wariant V8 mini, Style Creator, nowy zbiór danych. 

  12. V8 Rating Party Updates. Liczne sesje ocen w tygodniu od 16 lutego, premiera V8 spodziewana wkrótce potem. Potwierdzone funkcje: referencje stylu, moodboardy, personalizacja, weird, style creator, upscaling, edycja. 

  13. Web Updates Jan 20, 2026. Dodano proporcje 6:11, 4:5, 5:4, 21:9, operacje wsadowe dla 2000 elementów, automatyczne usuwanie nieistotnych parametrów. 

  14. V8 Release Status. „Midjourney V8 could drop next week” — natywna rozdzielczość 2K, kompletna przebudowa architektury, radykalnie ulepszone renderowanie tekstu. Koniec lutego 2026. 

  15. Profiles and Moodboards. Wiele nazwanych profili, 5x szybsza konfiguracja, wybór wielu aktywnych profili, 40 ocen na start, stabilność od 200, poprawa do 2000. 

  16. V8 Distillation and Release Timeline. Finalna runda destylacji rozpoczęta pod koniec lutego, ~1 tydzień trwania, następnie wydanie opt-in z ~30-dniową pre-alphą przed ustawieniem jako domyślny. Funkcja Rooms usunięta 26 lutego 2026. 

  17. Describe on Web + Moodboard Blending. Kliknięcie prawym przyciskiem myszy na Describe generuje 4 prompty tekstowe z dowolnego obrazu. Łączenie moodboardów z kodami --sref i parametrem --profile do bezpośredniego użycia ID moodboardu. 

  18. V8 Functionally Complete — March 4 Office Hours. David Holz potwierdził, że V8 jest „funkcjonalnie kompletny i gotowy do premiery”. Destylacja ma się wkrótce rozpocząć. Znaczące przyspieszenie nawet dla użytkowników Turbo. Prompty obrazowe/wariacje mogą działać inaczej podczas początkowego wdrożenia. Plan po V8: najpierw model edycji, potem model wideo V2 (nowy klaster obliczeniowy w marcu umożliwi większe modele wideo). Również: Geeky Gadgets V8 overview

  19. Personalization and Web Updates. 26 lutego 2026. Nowy interfejs personalizacji zastępuje porównania obrazów 1v1 szybszą siatką do klikania i przewijania. Personalizacja i Moodboards dodane do Niji 7. Funkcja Rooms wycofana. 

  20. V8 Rating Party - FINAL ROUND. 20 lutego 2026. Ostatnia runda kalibracji systemów personalizacji specjalnie dla V8. Premiera V8 coraz bliżej. Również: V8 Release Analysis — tryb Relax niedostępny przy premierze V8; użytkownicy Basic/Standard zmuszeni do Fast/Turbo podczas początkowego wdrożenia. 

  21. V8 Alpha Announcement. 17 marca 2026. V8 Alpha dostępna na alpha.midjourney.com. ~5x szybsze generowanie, natywne 2K dzięki --hd, zwiększona spójność przez --q 4, ulepszone renderowanie tekstu (użyj cudzysłowów), --stylize do 1000 zalecane. Zadania z --hd/--q 4/sref/Moodboard kosztują 4x więcej. Tryb Relax niedostępny. Pełna wsteczna kompatybilność z V7. Nowy interfejs: tryb konwersacyjny, Grid Mode, panel ustawień boczny.