AI Image Generation

Midjourney Prompt Engineering: The Complete Guide

5604 words 29 min read Updated 2026-03-05

Aktualisiert am 3. März 2026

Update März 2026: V8 hat Ende Februar seinen letzten Destillationsdurchlauf (Geschwindigkeitsoptimierung) begonnen, mit einer erwarteten Veröffentlichung als optionales, nicht standardmäßiges Modell Anfang März – sobald es verfügbar ist, folgt eine ca. 30-tägige Pre-Alpha-Phase, bevor es V7 als Standard ablöst.1416 Bestätigte V8-Funktionen umfassen native 2K-Auflösung (2048px), deutlich verbesserte Textdarstellung, style references, Moodboards, Personalisierung, weird-Parameter, Style Creator, Upscaling und Bearbeitung.12 Der V8-Erstellungsprozess führt schnelle Iteration in niedriger Auflösung ein: 64 Bilder bei 256px, schnelles Erkunden und anschließendes Upscaling der besten Ergebnisse.10 Midjourney wechselt von TPUs zu GPUs mit PyTorch, was schnellere Einstellungen und Entwicklung ermöglicht.11 Personalisierung unterstützt jetzt mehrere benannte Profile mit beschleunigter Einrichtung (5x schneller), und Sie können mehrere aktive Profile gleichzeitig auswählen.15 Moodboards erhielten den --profile-Parameter für direkte ID-basierte Nutzung und können jetzt mit --sref-Codes in einem einzigen Prompt kombiniert werden.1517 Niji 7 (9. Januar 2026) liefert sauberere Linienführung, verbesserte Augen-/Reflexionsdetails und deutlich reduzierten --sref-Stildrift – allerdings bleibt --cref weiterhin nicht verfügbar.3 Die Web-Benutzeroberfläche erhielt Describe on Web (Rechtsklick auf ein beliebiges Bild für 4 Textvorschläge), neue Seitenverhältnisse und Stapeloperationen für 2.000 Elemente.1317 Die Rooms-Funktion wurde am 26. Februar 2026 entfernt.16 Video, Moodboards, Draft Mode und alle V7-Funktionen bleiben aktuell. Siehe Changelog für die vollständige Historie.1

Ich habe Hunderte von Stunden damit verbracht, Midjourney über alle Versionen, Parameterkombinationen und Stilrichtungen hinweg zu testen. Dieser Leitfaden destilliert diese Erfahrung zu der umfassenden Referenz, die ich mir gewünscht hätte, als ich angefangen habe. Ob Sie Ihren ersten Prompt verfassen oder die Grenzen des Möglichen ausloten – die Techniken finden Sie hier.

Midjourney ist kein magischer Prompt-zu-Bild-Konverter. Es ist ein ausgefeiltes visuelles Sprachsystem, das auf bestimmte Muster reagiert, bestimmte Hierarchien respektiert und diejenigen belohnt, die seine Architektur verstehen. Der Unterschied zwischen generischer KI-Kunst und atemberaubenden, bewusst gestalteten Bildern liegt im Verständnis dieser Muster.

Die zentrale Erkenntnis: V7 hat die Funktionsweise von Prompts grundlegend verändert. Der alte Keyword-Ansatz („beautiful, stunning, 8k, detailed, masterpiece”) verschlechtert Ihre Ergebnisse aktiv. V7 versteht natürliche Sprache – schreiben Sie Prompts, als würden Sie einem erfahrenen Kameramann ein Foto beschreiben, nicht als würden Sie eine Stockfoto-Datenbank verschlagworten.

Dieser Leitfaden deckt alles ab – von der ersten Installation bis hin zu fortgeschrittenen Techniken, die die meisten Benutzer nie entdecken. Jeder Parameter ist mit tatsächlichen Wertebereichen, realen Beispielen und den Fallstricken dokumentiert, an denen selbst erfahrene Benutzer scheitern.


Inhaltsverzeichnis

Teil 1: Grundlagen

  1. Was ist Midjourney?
  2. Erste Schritte
  3. Grundlegende Konzepte
  4. Die Prompt-Hierarchie

Teil 2: Parameter meistern

  1. Versionsauswahl
  2. Seitenverhältnisse
  3. Stylization
  4. Chaos und Weird
  5. Experimentelle Ästhetik

Teil 3: Referenzsysteme

  1. Omni Reference
  2. Style Reference
  3. Image Weight
  4. Draft Mode

Teil 4: Videogenerierung

  1. Bild-zu-Video-Grundlagen
  2. Verlängern und Schleifen
  3. Best Practices für Video

Teil 5: Genre-Vorlagen

  1. Filmischer Realismus
  2. Porträtfotografie
  3. Produktfotografie
  4. Fantasy und Sci-Fi
  5. Anime mit Niji 7
  6. Architektur
  7. Abstrakt und Experimentell

Teil 6: Fortgeschrittene Techniken

  1. Wortgewichtung
  2. Negative Prompts
  3. Seed-Kontrolle
  4. Komposition mit mehreren Motiven
  5. Textdarstellung

Teil 7: Workflows und Optimierung

  1. Der Iterationszyklus
  2. Kostenmanagement
  3. Fehlerbehebung
  4. Versionsmigration

Teil 8: Referenz

  1. Parameter-Spickzettel
  2. Änderungsprotokoll

Was ist Midjourney?

Midjourney ist ein generatives KI-System, das Bilder aus Textbeschreibungen erstellt. Anders als bei herkömmlicher Bildbearbeitung oder Stockfotografie beschreiben Sie, was Sie sehen möchten, und Midjourney generiert originale Bilder, die Ihrer Vorstellung entsprechen.

Was Midjourney von anderen unterscheidet:

Aspekt Midjourney Wettbewerber
Bildqualität Branchenführende Ästhetik Unterschiedlich
Natürliche Sprache V7 versteht ganze Sätze Häufig schlagwortabhängig
Fotorealismus Herausragend mit V7 Gut bis ausgezeichnet
Anime/Illustration Niji-Modelle speziell optimiert Universell einsetzbar
Video Native Unterstützung (Juni 2025) Erfordert separate Tools
Community Integriertes Teilen/Entdecken Variiert

Was Sie erstellen können:

  • Fotorealistische Bilder: Porträts, Produkte, Architektur, Natur
  • Illustrationen: Concept Art, Buchcover, Editorials
  • Anime und Manga: Über spezialisierte Niji-Modelle
  • Abstrakte Kunst: Experimentelle, surreale Kompositionen
  • Videos: 5–21 Sekunden lange animierte Clips aus Bildern

Was Midjourney nicht ist:

  • Kein Bildbearbeitungsprogramm (dafür gibt es Photoshop)
  • Kein System mit konsistenten Charakteren (noch nicht – verbessert sich schnell)
  • Kein Werkzeug zur Nachbildung bestimmter urheberrechtlich geschützter Figuren
  • Nicht kostenlos (Abonnements von 10–120 $/Monat)

Erste Schritte

Kontoeinrichtung

  1. Besuchen Sie midjourney.com
  2. Melden Sie sich an mit Discord oder erstellen Sie ein Konto
  3. Wählen Sie ein Abonnement:
Tarif Preis Fast GPU Relax GPU Video Relax
Basic 10 $/Monat 3,3 Std.
Standard 30 $/Monat 15 Std. Unbegrenzt
Pro 60 $/Monat 30 Std. Unbegrenzt Ja
Mega 120 $/Monat 60 Std. Unbegrenzt Ja

Expertentipp: Beginnen Sie mit Standard (30 $/Monat). Der unbegrenzte Relax-Modus ist unverzichtbar zum Experimentieren – Sie werden Ihre Fast-Stunden beim Lernen schnell aufbrauchen.

Ihr erster Prompt

Öffnen Sie die Web-Oberfläche unter midjourney.com/imagine und geben Sie ein:

A golden retriever sitting in autumn leaves, soft afternoon sunlight

Das war’s. Keine spezielle Syntax nötig. V7 versteht natürliche Sprache.

Was Sie erhalten: Vier Variationen eines Golden Retrievers in herbstlicher Kulisse. Von hier aus können Sie:

  • Upscale: Klicken Sie auf U1–U4, um eine hochauflösende Version zu generieren
  • Vary: Klicken Sie auf V1–V4, um dezente Variationen zu erstellen
  • Reroll: Vier neue Variationen mit demselben Prompt generieren

Web vs. Discord

Funktion Web-Oberfläche Discord
Benutzerfreundlichkeit Einfacher Steilere Lernkurve
Bildorganisation Integrierte Galerie Verstreut in Kanälen
Videogenerierung Volle Unterstützung Nicht verfügbar
Prompt-Bearbeitung Visuelle Oberfläche Textbefehle
Community Explore-Tab Kanalübersicht
Empfehlung Hier starten Für Fortgeschrittene

Die Web-Oberfläche ist mittlerweile die primäre Benutzeroberfläche. Discord funktioniert, bietet aber keine Videogenerierung und hat einen weniger intuitiven Workflow.


Grundlegende Konzepte

Wie Prompts funktionieren

Jeder Midjourney-Prompt wird durch eine Pipeline verarbeitet:

Your Text Prompt
      
[Text Encoder]  Converts words to mathematical embeddings
      
[Diffusion Model]  Generates image from noise, guided by embeddings
      
[Upscaler]  Increases resolution and detail
      
Final Image

Was das für Sie bedeutet:

  1. Wortreihenfolge ist wichtig: Wörter am Anfang haben mehr Einfluss als spätere
  2. Präzision gewinnt: „golden hour sunlight casting long shadows” schlägt „nice lighting”
  3. Widersprüche verwirren: „dark, bright, moody, cheerful” hebt sich gegenseitig auf
  4. Weniger ist oft mehr: 50–150 Token übertreffen in der Regel 300+ Token

Die Token-Ökonomie

Midjourney sieht nicht Ihre Wörter – es sieht Token (ungefähr Wortfragmente).

Token-Anzahl Wirkung Ideal für
10–30 Sehr offene Interpretation Abstrakt, experimentell
30–80 Ausgewogene Kontrolle Die meisten Prompts
80–150 Detaillierte Kontrolle Spezifische Szenen
150+ Abnehmender Ertrag Kann Konflikte verursachen

Expertentipp: Wenn Ihr Prompt 150 Token überschreitet, spezifizieren Sie wahrscheinlich zu viel. Streichen Sie überflüssige Adjektive.

Qualitätssignale

V7 reagiert besonders stark auf bestimmte beschreibende Muster:

Beleuchtung (größter Einfluss): - „golden hour light casting long shadows across weathered stone” - „Rembrandt lighting with soft fill from camera left” - „bioluminescent glow illuminating the fog”

Materialien und Texturen: - „oxidized copper with verdigris patina” - „worn leather showing decades of use” - „translucent jade catching the light”

Atmosphäre und Stimmung: - „melancholic twilight atmosphere” - „oppressive industrial ambiance” - „ethereal dreamlike quality”

Technische Kamerabegriffe: - „shot on medium format, shallow depth of field” - „85mm lens, f/1.8 aperture” - „anamorphic lens flare, 2.39:1 aspect”


Die Prompt-Hierarchie

Jeder effektive Prompt folgt einer Hierarchie. Wörter an der Spitze haben den größten Einfluss.

┌─────────────────────────────────────────────────┐
  1. SUBJECT (who/what)           Most important 
     "elderly fisherman"                          
├─────────────────────────────────────────────────┤
  2. SUBJECT DETAILS (descriptors)               
     "weathered face, silver beard, kind eyes"   
├─────────────────────────────────────────────────┤
  3. CONTEXT (where/when)                        
     "on a wooden dock at dawn"                  
├─────────────────────────────────────────────────┤
  4. STYLE/MOOD (how it feels)                   
     "documentary photography, contemplative"     
├─────────────────────────────────────────────────┤
  5. TECHNICAL (camera/lighting)                 
     "shot on Leica, natural morning light"      
├─────────────────────────────────────────────────┤
  6. PARAMETERS (--ar, --s, etc.)   Fine-tuning 
     "--ar 3:2 --s 100 --v 7"                    
└─────────────────────────────────────────────────┘

Prompt-Vorlage

[SUBJECT] [SUBJECT DETAILS], [CONTEXT], [STYLE/MOOD], [TECHNICAL] --parameters

Beispiel nach der Hierarchie:

An elderly fisherman with a weathered face and silver beard, standing on a
wooden dock at dawn, documentary photography style, contemplative mood,
shot on Leica M11 with natural morning light, soft mist rising from the water
--ar 3:2 --s 100 --v 7

Was die meisten Nutzer übersehen: Sie beginnen mit dem Stil („beautiful cinematic photo of…”) statt mit dem Motiv. V7 gewichtet frühe Token stark – beginnen Sie mit dem, was Sie tatsächlich sehen möchten.


Versionsauswahl

V7 (Standard seit Juni 2025)

V7 ist das aktuelle Flaggschiff-Modell von Midjourney, veröffentlicht am 3. April 2025.2

Stärken: - Verständnis natürlicher Sprache (schreiben Sie Sätze, keine Stichwörter) - Beste Fotorealismus-Qualität bisher - Dramatisch verbesserte Textdarstellung - Bessere menschliche Anatomie (Hände, Körper) - Verbesserte räumliche Beziehungen - Personalization standardmäßig aktiviert

Generierungsmodi:

Modus Geschwindigkeit Kosten Ideal für
Turbo Am schnellsten 2x normal Finale Renders, wenn Zeit wichtig ist
Fast Normal 1x Standard-Workflow
Relax Warteschlange Inklusive Exploration, Lernen
Draft 10x schneller 0,5x Schnelle Iteration

Wann Sie V7 verwenden sollten: - Fotorealistische Bilder - Jeder Prompt mit komplexer natürlicher Sprache - Textdarstellung - Wenn höchste Qualität gefragt ist

Niji 7 (Januar 2026)

Niji 7 ist das spezialisierte Anime-/Manga-Modell, veröffentlicht am 9. Januar 2026.3

Stärken: - Kristallklare Augen, Reflexionen und feine Hintergrunddetails3 - Verbesserte Kohärenz bei komplexen Posen und Multi-Arm-Kompositionen - Wörtlichere Prompt-Interpretation — verarbeitet spezifische Farbpositionen und Frisuren präzise - Bessere Textdarstellung - Verbesserte --sref-Leistung mit deutlich reduzierter Stildrift3 - Klare, flache Linienästhetik, die die verbesserte Linienqualität hervorhebt

Einschränkungen: - --cref wird NICHT unterstützt — das Team deutet eine „leistungsfähigere geheime Überraschung” als Alternative an3 - Personalization (--p) und Moodboards werden schrittweise eingeführt (möglicherweise noch nicht vollständig verfügbar) - Wörtlicher als frühere Niji-Versionen — passen Sie stimmungsbasierte Prompts an

In Kürze verfügbar: - Neues Charakter-Referenzsystem als Ersatz für --cref (soll die Möglichkeiten von --cref übertreffen)

Verwendung:

A determined young mage with crimson hair, casting fire magic,
intense expression, ancient library background --niji 7

Wann Sie Niji 7 verwenden sollten: - Anime- und Manga-Illustrationen - Charakterdesign - Illustrationen mit östlicher Ästhetik - Wenn Sie sauberere Linienführung wünschen

Niji 6 (Legacy)

Weiterhin verfügbar für Abwärtskompatibilität.

Wann Sie Niji 6 verwenden sollten: - Sie benötigen Style-Presets (--style expressive, --style cute, --style scenic) - Ihr Workflow ist auf --cref angewiesen - Sie bevorzugen die weichere, weniger wörtliche Interpretation

Stile:

--niji 6 --style expressive  # Dynamic, stylized
--niji 6 --style cute        # Kawaii aesthetic
--niji 6 --style scenic      # Background focus
--niji 6 --style original    # Classic Niji look

Versionsvergleich

Funktion V7 Niji 7 Niji 6
Fotorealismus Ausgezeichnet N/A N/A
Anime Gut Ausgezeichnet Ausgezeichnet
Natürliche Sprache Am besten Gut Mäßig
Textdarstellung Am besten Gut Eingeschränkt
--oref Ja Nein Nein
--cref Nein Nein Ja
--sref Ja Ja (am besten) Ja
--p Ja Nein Optional
Style-Presets Nein Nein Ja

V8 Entwicklungsstand (März 2026)

V8 ist Ende Februar 2026 in die finale Destillationsphase (Geschwindigkeitsoptimierung) eingetreten, nach mehreren Community-Bewertungsrunden bis Mitte Februar.121416 Die Destillation dauert etwa eine Woche; nach Abschluss wird V8 als optionales, nicht standardmäßiges Modell für eine etwa 30-tägige Pre-Alpha-Phase veröffentlicht, bevor es V7 als Standard ablöst.16 Guides und Moderatoren begannen Ende Januar mit internen Tests.9

Bestätigte V8-Funktionen: - Native 2K-Auflösung (2048px) — macht den Upscaler überflüssig für echte, schärfere Ausgabe14 - Massive Verbesserungen bei der Textdarstellung (V7s schwächster Bereich)14 - Bessere Generierung komplexer Motive (Kreaturen, Zentauren, ungewöhnliche Anatomie) - Vollständige architektonische Neuentwicklung (neue Codebasis, unterstützt 64px bis 2048px+ nativ)14 - Style references, Moodboards, Personalization, weird-Parameter werden alle unterstützt12 - Style Creator und Web-Profile für den Community-Stilaustausch11 - Upscaling- und Bearbeitungsfunktionen integriert12 - Neuer Erstellungsablauf: 64 Bilder bei 256px für schnelle Exploration, dann die besten auswählen und hochskalieren10 - Infrastrukturwechsel von TPUs zu GPUs mit PyTorch (besser unterstützte Codebasis, schnellere Einstellung von Entwicklern)11 - V8 „mini”-Variante für leistungsschwächere Hardware konzipiert11 - Ziel: Echtzeit-Vorschaugenerierung

Zeitplan (Stand Anfang März 2026): - Interne Tests: Januar 20269 - Bewertungsrunden: Anfang bis Mitte Februar 202612 - Destillationsphase: Beginn Ende Februar 2026 (~1 Woche)16 - Veröffentlichung: voraussichtlich Anfang März 2026 als Opt-in, nicht Standard16 - Pre-Alpha: ~30 Tage nach der Opt-in-Veröffentlichung, dann wird es Standard16 - Verbesserungen der mobilen App nach dem V8-Launch geplant9 - 3D-Funktionalität mit Kamerabewegung und Neuausrichtung in Entwicklung9

Was nach V8 kommt: - Hardware-Projekte: vier in Arbeit, darunter ein tragbares Gerät und ein Assemblierungsprojekt in Lagerhausgröße10 - Erweiterung des Batch-Modus mit einem System zum Erlernen von Benutzerpräferenzen9 - Echtzeit-KI-Modelle als langfristiges Ziel9


Seitenverhältnisse

Der --ar-Parameter legt die Bildabmessungen fest. Standard ist 1:1 (quadratisch).

Gängige Seitenverhältnisse

Verhältnis Abmessungen Verwendungszweck
1:1 Quadratisch Social Media, Icons
4:5 Hochformat Instagram-Feed, Mobilgeräte
5:4 Querformat Desktop, Präsentationen
16:9 Breitbild YouTube, Präsentationen
6:11 Hohes Hochformat Handy-Hintergründe, vertikale Poster
9:16 Vertikal Stories, TikTok, Mobilgeräte
21:9 Ultrabreit Cineastisch, Film
3:2 Klassisch Fotodrucke
2:3 Hochformat Vertikale Drucke

Plattformspezifische Empfehlungen

Plattform Verhältnis Hinweise
Instagram Feed 1:1 oder 4:5 4:5 nimmt mehr Bildschirmfläche ein
Instagram Story 9:16 Vollständig vertikal
Twitter/X 16:9 oder 1:1 16:9 wird im Feed erweitert
LinkedIn 1.91:1 oder 16:9 Professionelles Querformat
Pinterest 2:3 Vertikale Formate performen am besten
YouTube Thumbnail 16:9 Standard-Videoformat
Desktop-Hintergrund 16:9 oder 21:9 Passend zu Ihrem Monitor

Auswirkung auf die Komposition

Das Seitenverhältnis bestimmt nicht nur die Abmessungen — es verändert grundlegend die Komposition.

Breite Verhältnisse (16:9, 21:9): - Betonen Umgebung und Kontext - Natürlich für Landschaften, Stadtansichten - Cineastisches Gefühl - Motive werden Teil einer Szene

Hohe Verhältnisse (4:5, 9:16): - Lenken die Aufmerksamkeit auf das Motiv - Natürlich für Porträts, Produkte - Intimes Gefühl - Mehr vertikale Information

Expertentipp: Für cineastische Porträts probieren Sie 4:5 anstelle des naheliegenden 16:9. Sie erhalten die motivzentrierte Rahmung des Hochformats mit genügend Kontext für visuelles Storytelling.


Stilisierung

Der --s-Parameter steuert, wie stark V7 künstlerisch interpretiert. Bereich: 0–1000. Standard: 100.

Stilisierungsbereiche

Bereich Effekt Ideal für
0–50 Minimale Interpretation Produktfotos, technische Genauigkeit
50–150 Ausgewogen (Standard) Allgemeine Nutzung, Porträts
150–300 Spürbare Stilisierung Künstlerische Fotos, Stimmungsbilder
300–500 Starke Stilisierung Illustrationen, Konzeptbilder
500–1000 Sehr stilisiert Abstrakt, experimentell

Visuelle Beispiele

Portrait of a woman, soft window light --s 50
# Result: Clean, realistic, minimal embellishment

Portrait of a woman, soft window light --s 250
# Result: More artistic interpretation, enhanced mood

Portrait of a woman, soft window light --s 600
# Result: Distinctly stylized, dreamlike quality

Entscheidungsrahmen

Verwenden Sie niedrige Stilisierung (0–100), wenn: - Sie Produktfotografie erstellen - Sie fotorealistische Genauigkeit wünschen - Technische Bilder / Dokumentationsbilder benötigt werden - Der Prompt wörtlich interpretiert werden soll

Verwenden Sie mittlere Stilisierung (100–300), wenn: - Sie allgemeine kreative Arbeiten erstellen - Redaktionelle Fotografie gewünscht ist - Sie Verbesserung ohne Extreme möchten - Eine Balance zwischen realistisch und künstlerisch gefragt ist

Verwenden Sie hohe Stilisierung (300+), wenn: - Sie Illustrationen oder Konzeptkunst erstellen - Abstrakte oder experimentelle Arbeiten gewünscht sind - Die Midjourney-Ästhetik dominieren soll - Sie kreative Grenzen ausloten möchten

Stilisierung + Style Raw

Für maximalen Fotorealismus kombinieren Sie niedrige Stilisierung mit --style raw:

Portrait of a businessman, office background --s 50 --style raw --v 7

--style raw weist V7 an, die eigene ästhetische Interpretation zu minimieren, sodass die Ergebnisse näher an der wörtlichen Prompt-Umsetzung liegen.


Chaos und Weird

Chaos (–chaos 0-100)

Steuert die Variation zwischen den vier generierten Bildern. Standard: 0.

Wert Effekt
0 Sehr ähnliche Ergebnisse
25 Leichte Variationen
50 Mäßige Vielfalt
75 Hohe Vielfalt
100 Maximale Unvorhersehbarkeit

Wann Sie Chaos verwenden sollten: - Explorationsphase: --chaos 50-75 um verschiedene Interpretationen zu sehen - Finales Render: --chaos 0-25 für konsistente Ergebnisse - Richtung finden: Hoher Chaos-Wert zu Beginn, niedriger für die Verfeinerung

Weird (–weird 0-3000)

Erzeugt unkonventionelle, unerwartete Ästhetik. Standard: 0.

Bereich Effekt
0 Standardästhetik
100–500 Subtile Eigenheiten
500–1000 Spürbare Fremdartigkeit
1000–2000 Sehr ungewöhnlich
2000–3000 Maximale Verrücktheit

Wann Sie Weird verwenden sollten: - Surreale oder traumhafte Bilder - Um generische KI-Ästhetik zu durchbrechen - Konzeptkunst-Exploration - Wenn „normal” zu vorhersehbar wirkt

Chaos und Weird kombinieren

--chaos 50 --weird 500   # Varied outputs, each slightly quirky
--chaos 100 --weird 0    # Wild variations, normal aesthetic
--chaos 25 --weird 2000  # Similar outputs, all very weird

Expertentipp: Hohe Weird-Werte können wirklich ungewöhnliche Bilder erzeugen, sind aber inkonsistent. Nutzen Sie sie für die Exploration und reduzieren Sie den Wert dann für finale Renders.


Experimentelle Ästhetik

Der --exp-Parameter fügt verbesserte Details, Dynamik und Tone-Mapping-Effekte hinzu. Bereich: 0–100. Standard: 0.

Effektstufen

Wert Effekt Hinweise
0 Aus (Standard) Standard-Rendering
5 Subtile Verbesserung Sicher kombinierbar mit anderen Parametern
10 Spürbarer Detailschub Guter Ausgangspunkt
25 Starker Effekt Empfohlenes Maximum für Kombinationen
50 Sehr stark Kann die Prompt-Genauigkeit verringern
100 Maximum Kann –stylize und –p überlagern

Was –exp bewirkt

  • Detailreichere Texturen und Oberflächen
  • Dynamischere, kräftigere Kompositionen
  • Tone-Mapping mit HDR-ähnlichem Erscheinungsbild
  • Verstärktes visuelles Interesse

Empfohlene Kombinationen

--exp 10 --s 200           # Enhanced detail, balanced style
--exp 25 --s 100           # Strong exp, controlled stylize
--exp 5 --style raw        # Subtle boost for photorealism

Warnung: Parameterkonflikte

Bei hohen Werten (über 25–50) kann --exp: - --stylize-Einstellungen überlagern - Personalization (--p) überschreiben - Die Bildvielfalt verringern

Expertentipp: Halten Sie --exp bei den meisten Arbeiten zwischen 10 und 25. Höhere Werte sind für spezifische stilistische Effekte gedacht, nicht für eine allgemeine Qualitätsverbesserung.


Omni Reference

Der Parameter --oref überträgt Merkmale eines Subjekts aus einem Referenzbild auf Ihre Generierung. Er hat --cref in V7 ersetzt.

Grundlegende Verwendung

/imagine A woman in a red dress at a gala --oref [image URL]

Was übertragen wird: - Gesicht und Gesichtszüge - Körpertyp und Proportionen - Kleidung und Accessoires - Gesamte Identität

Gewichtungssteuerung (–ow)

--ow 0-1000    # Omni weight (default 100)
Gewichtung Effekt
0-30 Lockere Inspiration, erlaubt Stiländerungen
30-60 Moderater Einfluss
60-100 Starke Ähnlichkeit (Standardbereich)
100-300 Sehr enge Übereinstimmung
300-1000 Maximale Wiedergabetreue

Wechselwirkungen der Gewichtung

Der Parameter --ow konkurriert mit --stylize und --exp um Einfluss. Bei hohen Werten für Stylize oder Exp sollten Sie --ow erhöhen, um die Konsistenz der Referenz beizubehalten:

# High stylize needs higher ow to keep reference
--oref [url] --ow 200 --s 400

# High exp overwhelms default ow
--oref [url] --ow 300 --exp 25

# If you aren't using high stylize/exp, stay at moderate ow (100-400)

Expertentipp: Für die meisten Arbeiten ohne extreme Werte bei --stylize oder --exp sollten Sie --ow unter 400 halten. Gehen Sie nur über moderate Werte hinaus, wenn Sie exakte Gesichtszüge oder Kleidungsdetails gegenüber starken Stilparametern bewahren müssen.

Bewährte Vorgehensweisen

Die Qualität des Referenzbildes ist entscheidend: - Hohe Auflösung, deutliches Subjekt - Frontalaufnahmen funktionieren am besten für Gesichter - Gleichmäßige Beleuchtung in der Referenz - Minimale Ablenkungen im Hintergrund

Gewichtung für Stiländerungen anpassen:

# Photo to anime conversion - lower weight
--oref [photo URL] --ow 40 --niji 7

# Maintaining strict likeness
--oref [photo URL] --ow 200 --v 7

Kombination mit Style Reference:

# Subject from one image, style from another
--oref [subject URL] --sref [style URL] --ow 100 --sw 150

Style Reference

Der Parameter --sref überträgt ästhetische Eigenschaften aus einem Referenzbild.

Grundlegende Verwendung

/imagine A mountain landscape at sunset --sref [style image URL]

Was übertragen wird: - Farbpalette - Beleuchtungsstil - Künstlerische Technik - Gesamtstimmung/Atmosphäre - Kompositorische Tendenzen

Gewichtungssteuerung (–sw)

--sw 0-1000    # Style weight (default 100)
Gewichtung Effekt
0-50 Subtiler Einfluss
50-150 Ausgewogene Übertragung
150-300 Starke Stilübereinstimmung
300-1000 Dominanter Stil

Mehrere Style References

Sie können mehrere Stilbilder kombinieren:

--sref [url1] [url2]

Die Stile verschmelzen miteinander. Nutzen Sie dies, um einzigartige ästhetische Kombinationen zu erzeugen.

Bewährte Vorgehensweisen

Funktioniert am besten mit: - Markanten, konsistenten Stilen - Klaren ästhetischen Merkmalen - Bildern mit starker visueller Identität

Weniger effektiv bei: - Sehr generischen Fotos - Gemischten oder unklaren Stilen - Bildern, bei denen der „Stil” nicht offensichtlich ist

Expertentipp: Niji 7 bietet die beste --sref-Leistung. Wenn Stilübertragung entscheidend ist, sollten Sie Niji 7 auch für Nicht-Anime-Inhalte in Betracht ziehen.

Verwendung älterer Style-Reference-Codes

Wenn Sie --sref-Codes aus der V6-Ära haben, funktionieren diese in V7 nicht direkt. Fügen Sie --sv 4 hinzu, um ältere Stilcodes zu verwenden:

/imagine A mountain landscape --sref 123456789 --sv 4
# --sv 4 tells V7 to interpret the code using V6 style system

Hinweis: Obwohl dies Abwärtskompatibilität gewährleistet, sollten Sie in Erwägung ziehen, Style References in V7 neu zu generieren, um bessere Ergebnisse mit dem neuen Modell zu erzielen.


Image Weight

Der Parameter --iw steuert, wie stark ein Referenzbild Ihre Generierung beeinflusst.

Grundlegende Verwendung

/imagine [prompt] [image URL] --iw 1.5

Gewichtungsbereich

Bereich: 0-2 (Standard 1)

Gewichtung Effekt
0-0,5 Prompt dominiert
0,5-1 Ausgewogen
1-1,5 Bild dominiert
1,5-2 Starker Bildeinfluss

Anwendungsfälle

Niedrige Gewichtung (0-0,5): Verwenden Sie das Bild als lockere Inspiration, während der Prompt dominiert

Ausgewogen (0,5-1): Gleichmäßiger Einfluss von Prompt und Bild

Hohe Gewichtung (1,5-2): Erstellen Sie Variationen, die eng auf dem Bild basieren


Moodboards (benutzerdefinierte Stilprofile)

Mit Moodboards können Sie personalisierte Stilprofile erstellen, indem Sie Bilder bewerten. Anstatt ein einzelnes --sref-Bild zu verwenden, bauen Sie eine stabile ästhetische Präferenz aus mehreren Beispielen auf.7 Sie können jetzt mehrere benannte Profile erstellen, ein Standardprofil festlegen und sogar mehrere aktive Profile gleichzeitig auswählen.15

Wie Moodboards funktionieren

  1. Erstellen Sie ein Moodboard unter midjourney.com/personalize
  2. Bewerten Sie Bilder (Gefällt mir/Gefällt mir nicht), um Ihren Stil zu trainieren — die Einrichtung ist jetzt bis zu 5x schneller15
  3. Anwenden mit --p, um Ihr Standard-Moodboard zu verwenden
  4. Anwenden mit --p [mID], um ein bestimmtes Moodboard zu verwenden
  5. Benennen und organisieren Sie mehrere Profile für verschiedene Projekte oder Mitarbeiter15

Aufbau eines stabilen Profils

Bewertungen Stabilität
40 Minimum für ein nutzbares Profil15
200 Ziemlich stabil, zuverlässige Ergebnisse15
2.000 Maximale Verfeinerung, beste Konsistenz15

Expertentipp: Bewerten Sie mindestens 200 Bilder für ein zuverlässiges Moodboard. Geben Sie sowohl „Gefällt mir” ALS AUCH „Gefällt mir nicht” ab — negative Bewertungen helfen Midjourney zu verstehen, was vermieden werden soll. Sie können mehrere aktive Profile gleichzeitig für gemischte Ästhetik auswählen.15

Moodboards verwenden

/imagine A forest path at dawn --p
# Uses your default moodboard

/imagine A forest path at dawn --p abc123
# Uses specific moodboard with ID abc123

/imagine A forest path at dawn --profile abc123
# Alternative syntax using --profile parameter

Moodboards vs. Style Reference

Ansatz Am besten geeignet für
--sref Einmalige Stilübertragung von einem einzelnen Bild
--p (Moodboard) Konsistente persönliche Ästhetik über Projekte hinweg

Moodboards mit –sref kombinieren

Sie können Moodboards mit Style-Reference-Codes in einem einzigen Prompt für nuancierte Steuerung kombinieren:17

/imagine A portrait --p --sref [url] --sw 50
# Your moodboard aesthetic + subtle style reference influence

/imagine A portrait --sref 142710498 --profile drgmjoi 2jrqbw6
# Mix sref codes with multiple moodboard profiles

Sie können auch Moodboard-Snapshots als Codes teilen (z. B. --profile 2jrqbw6), die andere verwenden können, oder einen Link zur Live-Version teilen, die sich aktualisiert, wenn Sie sie weiter verfeinern.17


Draft Mode

Draft Mode generiert Bilder mit 10-facher Geschwindigkeit bei halben GPU-Kosten. Unverzichtbar für die Exploration.

Draft Mode aktivieren

/imagine [prompt] --draft

Oder in den Einstellungen der Weboberfläche umschalten.

Vergleich Draft vs. Vollständig

Aspekt Draft Vollständig
Geschwindigkeit ~10x schneller Standard
GPU-Kosten 50 % 100 %
Detail Reduziert Vollständig
Am besten für Exploration Endausgabe

Der Draft-Workflow

1. Draft Mode Exploration (--draft)
   ├── Test 5-10 variations quickly
   ├── Identify promising directions
   └── Note effective parameters

2. Full Render Refinement
   ├── Remove --draft flag
   ├── Apply learned parameters
   └── Fine-tune with --seed

Expertentipp: Beginnen Sie immer im Draft Mode. Die Kosteneinsparungen summieren sich, und Sie werden mehr Optionen erkunden. Wechseln Sie erst zum vollständigen Rendern, wenn Sie eine Richtung gefunden haben, die es wert ist, weiterverfolgt zu werden.


Grundlagen der Bild-zu-Video-Erstellung

Midjourneys V1 Video Model wurde am 19. Juni 2025 eingeführt und ermöglicht Bild-zu-Video-Animation.

Funktionsweise

  1. Beliebiges Bild auswählen (von Midjourney generiert oder hochgeladen)
  2. Auf „Animate” klicken
  3. Optionen wählen (Auto, Manual, Loop)
  4. Generieren eines 5-Sekunden-Videoclips

Bewegungsparameter

--motion low    # Still scenes, slow motion, subtle movement (default)
--motion high   # Big camera motions, larger character movements
--raw           # Reduces creative flair, more prompt control

Bewegungsvergleich

Einstellung Effekt Am besten geeignet für
Low Subtile, filmische Bewegung Porträts, Stillleben, Atmosphäre
High Dynamische, energetische Bewegung Action, Landschaften, Menschenmengen

Warnung: Hohe Bewegungswerte können unrealistische oder fehlerhafte Bewegungen erzeugen. Beginnen Sie mit Low und erhöhen Sie nur bei Bedarf.

Kosten und Tarife

  • Video-Jobs kosten ungefähr das 8-Fache von Bild-Jobs
  • Jeder Job erzeugt vier 5-Sekunden-Videos
  • Nur über die Weboberfläche verfügbar (nicht über Discord)
Tarif Fast Mode Video Relax Mode Video
Basic Ja Nein
Standard Ja Nein
Pro Ja Ja
Mega Ja Ja

HD Video Mode

Der HD Video Mode (eingeführt im August 2025) liefert 4x schärfere Auflösung — die vierfache Pixeldichte für dramatisch verbesserte Videoqualität.8

So verwenden Sie HD Video: 1. Generieren Sie zuerst ein Standard-Video 2. Klicken Sie auf die HD-Option bei einem fertigen Video 3. Warten Sie auf das hochauflösende Rendern

HD-Video-Kosten: - Kostet ungefähr das 3,2-Fache eines Standard-Videos - Nur für Pro- und Mega-Tarife verfügbar - Erfordert zunächst ein Standard-Video (direktes HD-Generieren nicht möglich)

Modus Auflösung Relative Kosten
Standard (SD) Basis 1x
High Definition (HD) 4x Pixel ~3,2x

Wann Sie HD verwenden sollten: - Finale Lieferassets - Große Displays oder Projektionen - Professionelle/kommerzielle Arbeit - Wenn Details in der Bewegung wichtig sind

Expertentipp: Testen Sie immer zuerst in SD. HD dauert länger und kostet mehr — aktualisieren Sie nur Ihre besten Clips.


Verlängern und Loopen

Videos verlängern

Sie können jedes Video um zusätzliche 4 Sekunden verlängern, bis zu 4 Mal (maximal 21 Sekunden).

Verlängerungsoptionen: - Auto: Setzt das Video automatisch fort - Manual: Passen Sie den Prompt vor der Verlängerung an

Bewährte Vorgehensweisen für Verlängerungen: - Planen Sie Ihren narrativen Bogen, bevor Sie beginnen - Die ersten 5 Sekunden sollten die Szene etablieren - Jede Verlängerung sollte einen Zweck haben - Beachten Sie das Tempo — 21 Sekunden sind länger, als Sie denken

Loops erstellen

Die Loop-Option erstellt nahtlos wiederholende Videos, bei denen der erste und letzte Frame übereinstimmen.

Select image  Click "Loop"  Generate

Am besten geeignet für: - Hintergrundanimationen - Social-Media-Inhalte - Ambiente Visuals - Cinemagraphs

Tipps für bessere Loops: - Einfache, wiederholbare Bewegungen funktionieren am besten - Vermeiden Sie komplexe Kamerabewegungen - Atmosphärische Elemente (Wolken, Wasser, Feuer) loopen natürlich


Bewährte Vorgehensweisen für Video

Wann Sie Video einsetzen sollten

Gute Kandidaten für Video: - Atmosphärische Szenen (Nebel, Regen, Feuer) - Subtile Bewegung (Haare, Stoff, Wasser) - Landschaften mit Umgebungsbewegung - Porträts mit minimaler Bewegung

Weniger ideal für Video: - Komplexe Actionsequenzen - Szenen mit mehreren Charakteren - Präzise Choreografie - Anforderungen an technische Genauigkeit

Optimierung für Video

Vor dem Animieren: 1. Generieren Sie zuerst das perfekte Standbild 2. Überlegen Sie, wie sich Elemente bewegen könnten 3. Vermeiden Sie komplexe, miteinander verbundene Subjekte 4. Einfache Kompositionen lassen sich besser animieren

Prompt-Anpassungen:

# Good for video
Lone figure standing on cliff edge, wind blowing cape, dramatic clouds

# Less ideal for video
Group of dancers in synchronized formation, precise movements

Kostenmanagement

Bei 8-fachen Bildkosten summiert sich Video schnell:

Kosteneffizienter Workflow: 1. Im Draft Mode erkunden (Bilder) 2. Die perfekte Komposition finden 3. Finales, hochwertiges Standbild generieren 4. Nur die beste Version animieren 5. Nur bei Bedarf verlängern

Kinematischer Realismus

Das effektivste Muster für fotorealistische, kinematische Ergebnisse.

Die kinematische Vorlage

[Shot type] by [Director], [subject physical description],
[action/pose], [costume/styling], [setting details],
captured with [Camera Body] using [Lens], [lighting description],
[mood/atmosphere summary]
--ar [ratio] --s [value] --p --no anime, cartoon, illustration, painting

Regisseur-Stile

Regisseur Visueller Stil Ideal für
Ridley Scott Atmosphärisch, texturiert, stimmungsvoll Sci-Fi, Historienfilm, Nahaufnahmen
Denis Villeneuve Epische Weite, karg, geometrisch Landschaften, Weitwinkelaufnahmen
David Fincher Dunkel, präzise, beunruhigend Thriller, stimmungsvolle Porträts
Roger Deakins Silhouetten, natürliches Licht, poetisch Alle lichtbetonten Aufnahmen
Alfonso Cuarón Immersiv, intim, fließend Charaktermomente, Spannung
Wes Anderson Symmetrisch, pastellfarben, verspielt Stilisierte, zentrierte Kompositionen
Christopher Nolan IMAX-Maßstab, praktisch, intensiv Action, Architektur
Terrence Malick Goldene Stunde, ätherisch, naturbetont Landschaften, kontemplativ

Kamerareferenz

Kamera Ästhetik Ideal für
RED Komodo Modernes digitales Kino Nahaufnahmen, Spielfilm
ARRI ALEXA Filmähnlich, satte Farben Alles im Kinobereich
ARRI Alexa Mini Wie ALEXA, kompakter Dokumentarfilm, Handkamera
ARRI ALEXA 65 Großformat, episch Landschaften, IMAX-Feeling
RED V-Raptor 8K, scharf, dynamisch Action, hohe Detailtreue
Sony Venice Vollformat, vielseitig Schwaches Licht, anamorphotisch
Hasselblad Mittelformat, luxuriös Porträts, Mode
Leica M Messsucherkamera, klassisch Straße, Dokumentarfilm

Objektivkombinationen

Brennweite Wirkung Ideal für
24mm f/1.4 Weit, umgebungsbetont Landschaften, Übersichtsaufnahmen
35mm f/2.0 Natürlich, vielseitig Dokumentarfilm, Straße
50mm f/1.4 Klassisch, ausgewogen Allgemein einsetzbar
85mm f/1.8 Porträt, geringe Schärfentiefe Nahaufnahmen, Porträts
105mm f/2.0 Komprimiert, intim Kopfporträts
135mm f/2.0 Maximale Kompression Enge Porträts

Vollständige kinematische Beispiele

Nahaufnahme-Porträt:

Dramatic close-up portrait by Ridley Scott, young woman with pale skin
and auburn hair, intense green eyes staring directly at camera, subtle
freckles across nose, wearing dark wool coat, rain falling around her
face, captured with RED Komodo using 85mm f/1.8 lens, cold blue-silver
lighting with warm practical rim light, melancholic determined atmosphere
--ar 4:5 --s 150 --p --no anime, cartoon, illustration, painting

Kinematische Weitaufnahme:

Epic wide shot by Denis Villeneuve, lone figure in orange survival suit
walking across endless salt flats, geometric patterns in dried earth,
massive dust storm approaching on horizon, captured with ARRI ALEXA 65
using 24mm f/2.0 lens, harsh afternoon sun creating stark shadows,
desolate apocalyptic atmosphere
--ar 21:9 --s 200 --p --no anime, cartoon, illustration, painting

Wichtig: Verwenden Sie niemals Schauspielernamen. Beschreiben Sie Personen anhand physischer Merkmale. „Young woman with pale skin and auburn hair” statt „Emma Stone”. Schauspielernamen erzeugen Uncanny-Valley-Effekte.


Porträtfotografie

Beleuchtungsmuster

Muster Wirkung Aufbau
Rembrandt Dramatisch, klassisch Hauptlicht 45° seitlich, erzeugt Dreieck unter dem Auge
Butterfly Glamourös, schmeichelnd Hauptlicht von oben und vorne
Split Dramatisch, geheimnisvoll Licht von der reinen Seite
Rim/Edge Trennung, Tiefe Licht von hinten
Loop Subtiler Schatten Leichter Winkel gegenüber Rembrandt

Porträtvorlage

[Subject description], [expression/emotion], [pose],
[lighting pattern] lighting, shallow depth of field,
[background description], shot on [camera] with [lens]
--ar 4:5 --s 100 --v 7

Porträtbeispiele

Umgebungsporträt:

Middle-aged craftsman with salt-and-pepper beard, focused expression,
hands working on leather saddle, Rembrandt lighting from workshop window,
shallow depth of field, blurred tool-filled background, shot on
Hasselblad with 80mm f/1.9, documentary authenticity
--ar 4:5 --s 75 --style raw --v 7

Studioporträt:

Professional woman in her 30s, confident subtle smile, shoulders
turned slightly, butterfly lighting with soft fill, pure white
seamless background, shot on Phase One with 110mm f/2.8, clean
commercial aesthetic
--ar 4:5 --s 50 --v 7

Produktfotografie

Produktvorlage

[Product] on [surface/platform], [background style],
[lighting setup], commercial photography, high detail,
[brand aesthetic description]
--ar 1:1 --s 50 --v 7 --style raw

Oberflächen- und Hintergrundoptionen

Oberflächen: - Polierter Marmor (Luxus) - Rohbeton (industriell) - Naturholz (organisch) - Gebürstetes Metall (Technik) - Farbiges Acryl (modern)

Hintergründe: - Verlauf (sanfter Übergang) - Nahtlos (einfarbig) - Kontextuell (Nutzungsumgebung) - Abstrakt (künstlerisch)

Produktbeispiele

Luxuskosmetik:

Minimalist perfume bottle with gold cap on polished black marble surface,
gradient background from deep purple to black, dramatic rim lighting with
soft front fill, commercial photography, high detail, premium luxury
aesthetic, subtle reflections on marble
--ar 1:1 --s 25 --v 7 --style raw

Technologieprodukt:

Wireless earbuds case open showing earbuds inside, floating on
pure white seamless background, soft even lighting from all sides,
commercial product photography, high detail, clean Apple-style
minimalism, subtle shadow beneath
--ar 1:1 --s 50 --v 7 --style raw

Fantasy und Sci-Fi

Fantasy-Vorlage

[Character/scene description], [fantasy world details],
[magical elements], [lighting style],
[art style: painterly | concept art | illustration],
[artist influence if applicable]
--ar 16:9 --s 500 --weird 100 --v 7

Fantasy-Beispiele

Epische Fantasy:

Ancient elven queen seated on crystalline throne in vast cavern hall,
iridescent robes flowing with captured starlight, bioluminescent
flowers floating around her, massive glowing runes carved into
obsidian walls, ethereal volumetric lighting, painterly fantasy
illustration influenced by Craig Mullins and Alphonse Mucha
--ar 16:9 --s 600 --weird 150 --v 7

Dunkle Fantasy:

Battle-scarred knight in tarnished armor standing in ruined cathedral,
sword planted in cracked stone floor, pale moonlight streaming through
shattered rose window, crows circling above, mist swirling at feet,
dark atmospheric concept art, Beksinski and Zdzisław influence
--ar 16:9 --s 400 --weird 200 --v 7

Sci-Fi-Vorlage

[Subject/scene], [technology details], [environment],
[lighting: neon | holographic | industrial | sterile],
[aesthetic: cyberpunk | hard sci-fi | retro-futurism],
[mood description]
--ar 21:9 --s 300 --v 7

Sci-Fi-Beispiele

Cyberpunk:

Solo mercenary in worn tactical gear navigating rain-soaked neon alley,
holographic advertisements flickering overhead, steam rising from
street grates, distant megastructures visible through smog, cyan and
magenta neon reflections on wet pavement, Blade Runner cyberpunk
aesthetic, oppressive urban atmosphere
--ar 21:9 --s 350 --v 7

Harte Sci-Fi:

Interior of generation ship agricultural bay, massive cylindrical
space with terraced farms curving overhead, artificial sun strip
running along central axis, workers in utilitarian jumpsuits tending
crops, visible structural engineering, hard science fiction aesthetic,
The Expanse influence, functional yet beautiful
--ar 21:9 --s 250 --v 7

Anime mit Niji 7

Eigenschaften von Niji 7

Niji 7 erzeugt sauberere, flächigere Kunstwerke mit verbesserter Linienführung. Es interpretiert Prompts wörtlicher als frühere Versionen.

Niji 7-Vorlage

[Character description], [pose/action], [expression],
[setting/background], [specific style notes],
[color palette]
--niji 7 --ar [ratio]

Niji 7-Beispiele

Actionszene:

Young mage with flowing crimson hair and determined golden eyes,
casting powerful fire spell with both hands raised, intense focused
expression, ancient library crumbling around her, debris floating
in magical energy, dynamic diagonal composition, warm orange and
red color palette with cool blue shadows
--niji 7 --ar 3:4

Charakterporträt:

Elegant noblewoman with silver hair in elaborate updo, wearing dark
blue Victorian-inspired gown with gold embroidery, subtle knowing
smile, half-body portrait, ornate palace balcony background with
moonlit garden visible, soft romantic atmosphere, detailed lace
and fabric textures
--niji 7 --ar 4:5

Stiltransfer mit Niji 7

Niji 7 bietet die beste --sref-Leistung:

[Your prompt] --niji 7 --sref [style image URL] --sw 150

Beginnen Sie mit --sw 150 und passen Sie an: - Niedriger (50–100) für subtilen Einfluss - Höher (200–300) für starke Stilanpassung

Migration von Niji 6

Niji 6-Ansatz:

anime girl, beautiful, detailed eyes, colorful --niji 6 --style expressive

Niji 7-Ansatz:

Young woman with vibrant teal hair and large expressive amber eyes,
wearing casual summer dress, cheerful smile, urban cafe background,
afternoon sunlight, contemporary anime style
--niji 7

Wichtige Änderungen: - Schreiben Sie vollständige Beschreibungen, keine Stichwortlisten - Seien Sie wörtlicher und spezifischer - Style-Presets gibt es nicht mehr – beschreiben Sie, was Sie möchten - Verwenden Sie --sref für konsistenten Stil


Architektur

Architekturvorlage

[Building/space type], [architectural style],
[time of day/lighting], [weather/atmosphere],
[perspective: eye-level | aerial | interior | detail],
architectural photography, clean lines
--ar 16:9 --s 150 --v 7 --style raw

Architekturstile

Stil Merkmale Schlüsselbegriffe
Brutalismus Rohbeton, massiv, geometrisch Sichtbeton, monolithisch
Minimalismus Klare Linien, weiß, reduziert Negativraum, reine Formen
Art Déco Ornamental, geometrisch, luxuriös Goldakzente, Sonnenstrahlen-Muster
Gotik Spitzbögen, vertikal, dramatisch Strebepfeiler, Rosettenfenster
Japanisch Holz, Papier, Naturintegration Shoji-Wände, Engawa, Zen
Parametrisch Fließend, computergestützt, organisch Zaha Hadid, algorithmische Kurven

Architekturbeispiele

Brutalismus:

Brutalist concrete museum interior with dramatic skylights, afternoon
sun creating strong geometric shadows on exposed concrete walls, vast
empty gallery space with single sculpture, eye-level perspective
showing depth and scale, architectural photography by Hélène Binet
--ar 16:9 --s 100 --v 7 --style raw

Parametrisch:

Futuristic parametric architecture concert hall exterior, flowing white
curves inspired by Zaha Hadid, blue hour lighting with building interior
warmly illuminated, long exposure car light trails on surrounding roads,
wide establishing shot, architectural photography
--ar 16:9 --s 150 --v 7

Abstrakt und Experimentell

Abstrakte Vorlage

[Concept/emotion to express], [visual elements],
[color palette], [texture/material qualities],
[movement/energy description], abstract composition
--s 750 --weird 500 --chaos 50 --v 7

Abstrakte Beispiele

Emotionale Abstraktion:

The feeling of nostalgia dissolving into hope, fragmented memories
reforming as light, soft blues transitioning to warm amber, watercolor
textures bleeding into geometric shapes, gentle upward movement,
abstract emotional landscape
--ar 1:1 --s 800 --weird 750 --chaos 40 --v 7

Textur-Abstraktion:

Microscopic landscape of oxidized copper and crystalline salt
formations, verdigris greens and rust oranges, extreme macro detail,
mineral textures catching diffused light, abstract geological patterns
--ar 1:1 --s 500 --weird 300 --v 7

Grenzen erweitern

Für wirklich experimentelle Arbeiten: - Setzen Sie --weird über 1000 - Kombinieren Sie mit --chaos 75+ - Verwenden Sie abstrakte, emotionale Sprache - Referenzieren Sie unkonventionelle Künstler

The architecture of forgotten dreams, impossible geometries folding
through chromatic space, Escher meets Kandinsky, synesthetic color
relationships, visual music
--ar 1:1 --s 1000 --weird 2000 --chaos 75 --v 7

Wortgewichtung

Verwenden Sie die :: Syntax, um die Betonung bestimmter Elemente zu steuern.

Syntax

word::2      # Double emphasis
word::1.5    # 50% more emphasis
word::1      # Normal (default)
word::0.5   # Half emphasis
word::-1     # Negative (avoid)

Beispiele

ethereal::2 portrait of a warrior, dramatic lighting::1.5, mist::0.5

Dieser Prompt: - Betont stark die ätherische Qualität - Betont mäßig die dramatische Beleuchtung - Reduziert die Präsenz von Nebel

Wann Sie Gewichtung einsetzen sollten

Nützlich für: - Feinabstimmung der Elementbalance - Unterdrückung unerwünschter Interpretationen - Hervorhebung wichtiger Merkmale

Vermeiden Sie es, wenn: - Sie erste Entwürfe erkunden - Einfache Prompts auch ohne funktionieren - Sie nicht sicher sind, was Sie betonen möchten

Expertentipp: Wortgewichtung ist ein Werkzeug zur Verfeinerung, kein erster Schritt. Bringen Sie den grundlegenden Prompt zum Funktionieren und nutzen Sie dann die Gewichtung zur Feinabstimmung.


Negative Prompts

Der Parameter --no schließt Elemente aus der Generierung aus.

Grundlegende Verwendung

/imagine Beautiful landscape --no people, text, watermark

Effektive Negationen

Ziel Negation
Fotorealismus --no anime, cartoon, illustration, painting, drawing
Sauberes Bild --no text, watermark, signature, frame, border
Natürlicher Look --no oversaturated, HDR, artificial
Ernster Ton --no cute, chibi, kawaii
Einfache Komposition --no busy, cluttered, crowded

Bewährte Praktiken

Empfohlen: - Verwenden Sie spezifische, klare Begriffe - Reagieren Sie auf tatsächliche Probleme in Ihren Ergebnissen - Halten Sie die Liste fokussiert (3–5 Einträge)

Vermeiden: - Erschöpfende Listen von allem, was Sie nicht möchten - Vage Begriffe („bad”, „ugly”) - Negierung von Dingen, die ohnehin unwahrscheinlich erscheinen würden

Die filmische Negation

Für konsistente fotorealistische Ergebnisse:

--no anime, cartoon, illustration, painting, drawing, sketch, CGI, 3D render

Seed-Steuerung

Seeds ermöglichen Reproduzierbarkeit und kontrollierte Variation.

Grundlegende Verwendung

/imagine [prompt] --seed 12345

Gleicher Prompt + gleicher Seed = sehr ähnliches Ergebnis.

Seeds finden

Klicken Sie nach der Generierung auf die Bildinformationen, um den verwendeten Seed zu finden. Notieren Sie ihn zur Reproduktion.

Seed-Workflows

Variations-Workflow: 1. Generieren Sie mit zufälligem Seed 2. Finden Sie ein Ergebnis, das Ihnen gefällt 3. Notieren Sie den Seed 4. Nehmen Sie kleine Prompt-Änderungen mit demselben Seed vor 5. Vergleichen Sie die Variationen

Batch-Konsistenz:

Scene in morning light --seed 54321
Scene in afternoon light --seed 54321
Scene in evening light --seed 54321

Die Verwendung desselben Seeds bei verwandten Prompts erzeugt konsistentere Kompositionen.


Multi-Subjekt-Komposition

Komplexe Szenen mit mehreren Subjekten erfordern eine sorgfältige Prompt-Konstruktion.

Hierarchie-Ansatz

Listen Sie Subjekte in der Reihenfolge ihrer Wichtigkeit auf:

[Primary subject], [secondary subject], [tertiary subject],
[their relationship/interaction], [setting], [style]

Räumliche Sprache

Verwenden Sie klare räumliche Beschreibungen:

In the foreground, [subject A]
In the middle ground, [subject B]
In the background, [subject C]

Oder:

On the left, [subject A]
In the center, [subject B]
On the right, [subject C]

Beispiel

Elderly grandmother and young granddaughter baking together in
sunlit kitchen, grandmother guiding child's hands rolling dough,
flour dusting the wooden counter, warm afternoon light from window,
vintage kitchen appliances in background, intimate family moment,
documentary photography style
--ar 3:2 --s 100 --v 7

Textdarstellung

V7 hat die Textdarstellung in Bildern dramatisch verbessert.

Bewährte Praktiken

Halten Sie Text kurz: - Einzelne Wörter funktionieren am besten - Kurze Phrasen (2–4 Wörter) funktionieren meistens - Lange Sätze scheitern oft

Verwenden Sie Anführungszeichen:

Neon sign reading "OPEN" in storefront window

Spezifizieren Sie die Typografie:

Vintage poster with "JAZZ NIGHT" in art deco typography

Text-Beispiele

Beschilderung:

Rainy city street at night, neon diner sign reading "EAT" glowing
red through rain-streaked window, film noir atmosphere
--ar 16:9 --s 150 --v 7

Typografie:

Minimalist book cover design, large serif typography reading "THE END"
centered on cream paper texture, literary fiction aesthetic
--ar 2:3 --s 100 --v 7

Einschränkungen

Textdarstellung hat weiterhin Schwierigkeiten mit: - Langen Sätzen - Komplexen Schriftarten - Kleinem Text in unruhigen Bildern - Mehreren Textelementen

Expertentipp: Wenn Text entscheidend ist, generieren Sie das Bild ohne Text und fügen Sie die Typografie in der Nachbearbeitung hinzu.


Die Iterationsschleife

Professioneller Workflow für Midjourney:

Phase 1: Erkunden (Draft Mode)

1. Enable Draft mode (--draft)
2. Write basic prompt with core concept
3. Generate 4-8 batches quickly
4. Identify promising directions
5. Note what works/doesn't

Ziel: Richtung finden, nicht Perfektion. Geschwindigkeit zählt.

Phase 2: Verfeinern

1. Disable Draft mode
2. Take best concepts from Phase 1
3. Add specific details
4. Adjust parameters (--s, --chaos, etc.)
5. Generate in Fast mode
6. Compare variations

Ziel: Eingrenzen auf 2–3 starke Optionen.

Phase 3: Perfektionieren

1. Select best candidate
2. Note the seed
3. Make micro-adjustments to prompt
4. Use same seed for consistency
5. Upscale final choice

Ziel: Den Gewinner polieren.

Zeitaufteilung

Phase Zeit Modus
Erkunden 60 % Draft
Verfeinern 30 % Fast
Perfektionieren 10 % Fast

Die meisten Benutzer kehren dieses Verhältnis um und verbringen zu viel Zeit damit, erste Versuche zu perfektionieren. Erkunden Sie mehr, perfektionieren Sie weniger.

Describe im Web

Klicken Sie mit der rechten Maustaste auf ein beliebiges Bild in der Web-Oberfläche und wählen Sie „Describe”, um vier Text-Prompts aus dem Bild zu generieren.17 Dies ist unschätzbar wertvoll für das Reverse-Engineering von Stilen, die Sie bewundern — beschreiben Sie ein Bild von der Explore-Seite und modifizieren Sie dann die resultierenden Prompts, um sie Ihrer Vision anzupassen. Prompts werden beim Aktualisieren der Seite automatisch gelöscht.


Kostenmanagement

GPU-Zeit verstehen

  • Fast Mode: Verbraucht GPU-Stunden aus Ihrem Abonnement
  • Relax Mode: Unbegrenzt, aber in Warteschlange (Standard+-Tarife)
  • Draft Mode: Halbe GPU-Kosten im Vergleich zum regulären Modus
  • Video: Etwa 8-fache Kosten im Vergleich zu Bildern

Abonnement-Vergleich

Tarif Fast-Stunden Relax Video Relax $/​GPU-Stunde
Basic 3,3 Std. Nein Nein 3,03 $
Standard 15 Std. Ja Nein 2,00 $
Pro 30 Std. Ja Ja 2,00 $
Mega 60 Std. Ja Ja 2,00 $

Hinweis: Standard+-Tarife bieten ein deutlich besseres Preis-Leistungs-Verhältnis pro GPU-Stunde, plus unbegrenzten Relax-Modus.

Strategien zur Kosteneinsparung

  1. Erkunden Sie im Draft Mode — Halbe Kosten, 10-mal schneller
  2. Nutzen Sie Relax zum Erkunden — Kostenlos (Standard+)
  3. Reservieren Sie Fast für Finales — Nur wenn Qualität zählt
  4. Gruppieren Sie ähnliche Prompts — Effizienter als Einzelanfragen
  5. Planen Sie vor dem Generieren — Erst denken, dann generieren

Verbrauch schätzen

Aktion Ungefähre GPU-Minuten
4 Bilder (Standard) ~1 Min.
4 Bilder (Draft) ~0,5 Min.
Upscale ~0,5 Min.
Video (4× 5 Sek.) ~8 Min.

Fehlerbehebung

Häufige Probleme

Problem Ursache Lösung
Unscharfe Gesichter Niedriges –s oder Stilkonflikt Verwenden Sie --style raw, erhöhen Sie Detail-Prompts
Falsches Seitenverhältnis Standard 1:1 Geben Sie --ar explizit an
Zu künstlerisch Hohes –s Senken Sie auf 50–100
Zu wörtlich Niedriges –s Erhöhen Sie auf 200+
Inkonsistente Ergebnisse Niedriges Chaos Verwenden Sie --seed für Konsistenz
Stil überwältigend Hohes –sw Reduzieren Sie die --sw-Gewichtung
Text wird nicht dargestellt V7-Einschränkung Halten Sie Text kurz, verwenden Sie Anführungszeichen
Hände sehen falsch aus KI-Einschränkung Zuschneiden oder neu generieren
Rooms nicht gefunden Funktion am 26. Februar 2026 entfernt16 Verwenden Sie stattdessen Ordner und die Organize-Seite

Parameterkonflikte

Vermeiden Sie die Kombination von: - --style raw + hohes --s (widersprüchlich) - --v 7 + --niji (wählen Sie eines) - Mehrere starke Referenzen bei 100 % Gewichtung - --exp 50+ + --stylize (exp überwiegt) - --exp 50+ + --p (exp überschreibt)

Funktioniert gut zusammen: - --oref + --sref bei moderater Gewichtung - --chaos + --seed (variiert, aber reproduzierbar) - --style raw + niedriges --s (maximaler Fotorealismus) - --exp 10-25 + --s 100-200 (verbessert, kontrolliert)

Wenn nichts funktioniert

  1. Vereinfachen — Entfernen Sie Parameter, kürzen Sie den Prompt
  2. Aufteilen — Probieren Sie Subjekt und Stil getrennt
  3. Seed-Suche — Generieren Sie viele, finden Sie einen guten Seed, iterieren Sie
  4. Referenz — Verwenden Sie --sref mit einem Bild, das Ihr Ziel zeigt
  5. Version — Probieren Sie eine andere Modellversion

Versionsmigration

Migration von V6 zu V7

Alter V6-Stil:

portrait, beautiful woman, dramatic lighting, 8k, detailed, masterpiece

Neuer V7-Stil:

A contemplative portrait of a woman in her 30s, Rembrandt lighting
casting gentle shadows across her face, medium format photography
aesthetic with shallow depth of field

Wichtige Änderungen

Aspekt V6 V7
Prompt-Stil Schlüsselwörter Natürliche Sprache
Qualitätswörter Hilfreich Weitgehend ignoriert
Charakter-Referenz --cref --oref
Personalisierung Optional Standard
Standardverhalten Stilisiert Wörtlicher

Was Sie nicht mehr tun sollten

  • Schlüsselwort-Spam („beautiful, stunning, amazing”)
  • Qualitätsmodifikatoren („8k, ultra detailed, masterpiece”)
  • --cref verwenden (jetzt --oref)
  • Kurze, kommagetrennte Prompts

Was Sie jetzt tun sollten

  • Schreiben Sie vollständige Sätze
  • Beschreiben Sie, was Sie sehen, nicht was Sie wollen
  • Seien Sie spezifisch bei Beleuchtung, Materialien und Stimmung
  • Verwenden Sie Kamera-/Objektivterminologie
  • Nutzen Sie Personalisierung (--p)

Parameter-Spickzettel

MODELS
--v 7           Default, best overall (June 2025)
--niji 7        Anime/manga (Jan 2026, best coherence)
--niji 6        Anime/manga (legacy, has --style options)
--draft         Fast iteration, 10x faster, half cost

ASPECT
--ar 16:9       Widescreen
--ar 21:9       Cinematic ultrawide
--ar 4:5        Portrait (Instagram)
--ar 6:11       Tall portrait (phone wallpapers)
--ar 9:16       Vertical (Stories)
--ar 1:1        Square
--ar 3:2        Classic photo
--ar 2:3        Portrait print

STYLE
--s 0-100       Photorealistic
--s 100-300     Balanced
--s 300-1000    Artistic
--style raw     Minimal AI interpretation
--p             Apply personalization (V7 default)

EXPERIMENTAL
--exp 0-100     Enhanced detail (10-25 sweet spot)
--chaos 0-100   Output variety
--weird 0-3000  Unconventional aesthetics

REFERENCES
--oref [url]    Subject/character (V7)
--ow 0-1000     Omni weight (default 100)
--sref [url]    Style transfer
--sw 0-1000     Style weight (default 100)
--iw 0-2        Image weight (default 1)

VIDEO (Web only)
--motion low    Subtle movement (default)
--motion high   Dynamic movement
--raw           More prompt control

QUALITY
--q 1           Full quality (default)
--seed [num]    Reproducibility

NEGATIVE
--no [items]    Exclude elements

Änderungsprotokoll

Datum Änderung Quelle
03.03.2026 V8-Zeitplan aktualisiert (Distillation-Durchlauf Ende Februar, Opt-in-Veröffentlichung Anfang März, ca. 30-tägige Pre-Alpha vor Standardübernahme). --profile-Moodboard-Syntax und Kombination mit --sref-Codes hinzugefügt. Describe on Web-Funktion hinzugefügt. Rooms-Entfernung (26. Februar) ergänzt. 1617
28.02.2026 V8-Status aktualisiert (Stand 28. Februar noch ausstehend, native 2K bestätigt, vollständige Architektur-Neuentwicklung). Moodboard-/Profiles-Abschnitt erweitert (mehrere benannte Profile, 5-fach schnellere Einrichtung, Stabilitätsstufen auf 40/200/2.000 verfeinert). 1415
17.02.2026 V8-Status: letzte Feinschliff-Phase, mehrere Rating Parties Mitte Februar, Veröffentlichung steht unmittelbar bevor. V8-Funktionen bestätigt (Style Refs, Moodboards, Bearbeitung). Seitenverhältnis 6:11, –ow-Interaktionshinweise und Web-Plattform-Updates (Stapelverarbeitung, automatische Parameterbereinigung) hinzugefügt. 1213
09.02.2026 V8-Status aktualisiert (interne Tests, Rating Party, TPU→GPU-Wechsel, neuer Erstellungsablauf), Niji 7-Details erweitert (–sref-Drift, Augenqualität, –cref-Alternative) 910
20.01.2026 Abschnitt zum HD Video-Modus hinzugefügt (4-fache Auflösung, ca. 3,2-fache Kosten, nur Pro/Mega) 8
17.01.2026 V8-Entwicklungsstatus, Moodboards-Abschnitt und –sv 4 für ältere sref-Codes hinzugefügt Web-Recherche
16.01.2026 V7.1-Roadmap-Informationen hinzugefügt, Niji 7-Abdeckung überprüft Web-Recherche
13.01.2026 Leitfaden erstellt mit V7-, Niji 7- und Video-Abdeckung Mehrere Quellen
09.01.2026 Niji 7 mit verbesserter Kohärenz veröffentlicht 3
19.06.2025 V1 Video Model veröffentlicht 4
17.06.2025 V7 wurde zum Standardmodell 2
30.04.2025 V7-Update: –exp-Parameter, Editor-Verbesserungen 5
03.04.2025 V7 veröffentlicht 2

Quellenangaben


  1. Midjourney Updates. Offizielles Änderungsprotokoll und Ankündigungen. 

  2. Midjourney Version Documentation. „Version 7 was released on April 3, 2025, and became the default model on June 17, 2025.” 

  3. Niji V7 Announcement. „Niji V7 is now live” – 9. Januar 2026. 

  4. V1 Video Model. Videogenerierung veröffentlicht am 19. Juni 2025. 

  5. V7 Update, Editor, and –exp. Update-Details vom 30. April 2025. 

  6. V8 Development Discussion. Community-Diskussion über V8-Training und Roadmap-Details aus David Holz’ Frage-und-Antwort-Runde. 

  7. Moodboards Feature. Midjourney-Personalisierung über Moodboards und Bildbewertung. 

  8. HD Video Mode. „HD Video mode delivers 4x sharper AI-generated clips… costs roughly 3.2 times more than SD.” August 2025. 

  9. Office Hours Jan 22. V8 in der letzten Feinabstimmung, 3D-Funktionalität, Pläne für mobile App, Erweiterung des Batch-Modus. 

  10. Office Hours Feb 12. Rating Party signalisiert V8-Veröffentlichung, Hardware-Projekte, Echtzeit-3D-Forschung. 

  11. V8 Development Overview. TPU-zu-GPU/PyTorch-Wechsel, V8-Mini-Variante, Style Creator, neuer Datensatz. 

  12. V8 Rating Party Updates. Mehrere Rating Parties in der Woche vom 16. Februar, V8-Veröffentlichung kurz darauf erwartet. Bestätigte Funktionen: Style Refs, Moodboards, Personalisierung, Weird, Style Creator, Upscaling, Bearbeitung. 

  13. Web Updates Jan 20, 2026. Seitenverhältnisse 6:11, 4:5, 5:4, 21:9 hinzugefügt, Stapelverarbeitung für 2.000 Elemente, automatische Entfernung irrelevanter Parameter. 

  14. V8 Release Status. „Midjourney V8 could drop next week” – native 2K-Auflösung, vollständige Architektur-Neuentwicklung, deutlich verbessertes Textrendering. Ende Februar 2026. 

  15. Profiles and Moodboards. Mehrere benannte Profile, 5-fach schnellere Einrichtung, mehrere aktive Profile auswählbar, 40 Bewertungen zum Start, stabil ab 200, Verbesserung bis 2.000. 

  16. V8 Distillation and Release Timeline. Finaler Distillation-Durchlauf begann Ende Februar, ca. 1 Woche Dauer, dann Opt-in-Veröffentlichung mit ca. 30-tägiger Pre-Alpha vor Standardübernahme. Rooms-Funktion am 26. Februar 2026 entfernt. 

  17. Describe on Web + Moodboard Blending. Rechtsklick-Describe generiert 4 Textprompts aus jedem Bild. Moodboard-Kombination mit --sref-Codes und --profile-Parameter für direkte Moodboard-ID-Nutzung.