AI Image Generation

Midjourney Prompt Engineering: Der vollständige Leitfaden

Midjourney Prompt Engineering: Der vollständige Leitfaden

6363 words 32 Min. Lesezeit Updated 2026-03-21

Aktualisiert am 17. März 2026

Update März 2026: V8 Alpha ist LIVE. Am 17. März 2026 hat Midjourney die V8 Alpha unter alpha.midjourney.com zum Community-Testing veröffentlicht.21 V8 generiert Bilder ca. 5× schneller als V7, mit deutlich verbesserter Befolgung von Anweisungen, Kohärenz und Textdarstellung (verwenden Sie “Anführungszeichen” für beste Ergebnisse). Neue Parameter: --hd für native 2K-Auflösung und --q 4 für zusätzliche Kohärenz. V8 unterstützt --chaos, --weird, --exp, --raw und --stylize (bis zu 1000 empfohlen). Kostenhinweis: --hd, --q 4, --sref und Moodboard-Aufträge kosten während der Alpha-Phase so viel wie reguläre Aufträge.21 Relax-Modus ist für V8 noch nicht verfügbar – eine neue Server-Infrastruktur befindet sich in Entwicklung. V7-Personalisierungsprofile, Moodboards und srefs sind vollständig abwärtskompatibel mit V8.21 Neue UI-Funktionen: verbesserter Konversationsmodus für natürlichsprachlichen Ablauf, „Grid Mode” zur Fokussierung auf große Bildersets sowie Einstellungen in Seitenleisten.21 Roadmap nach V8: zunächst ein Bearbeitungsmodell, dann das V2-Videomodell (ein neues Compute-Cluster ermöglicht das Training größerer Videomodelle).18 Personalisierung unterstützt mehrere benannte Profile mit beschleunigter Einrichtung (5× schneller), und Sie können mehrere aktive Profile gleichzeitig auswählen.15 Die Personalisierungsoberfläche wurde am 26. Februar 2026 neu gestaltet: Bildpaar-Vergleiche wurden durch ein schnelleres Klick-und-Scroll-Rastersystem ersetzt.19 Moodboards erhielten den Parameter --profile für direkte ID-basierte Nutzung und lassen sich nun mit --sref-Codes in einem einzelnen Prompt kombinieren.1517 Niji 7 (9. Januar 2026) liefert sauberere Linienführung, verbesserte Augen-/Reflexionsdetails und deutlich reduzierten --sref-Stildrift – --cref bleibt weiterhin nicht verfügbar, allerdings werden Personalisierung und Moodboards seit dem 26. Februar 2026 vollständig auf Niji 7 unterstützt.319 Die Web-Oberfläche bietet nun Describe on Web (Rechtsklick auf ein beliebiges Bild für 4 Textprompts), neue Seitenverhältnisse und Stapelverarbeitung für 2.000 Elemente.1317 Die Rooms-Funktion wurde am 26. Februar 2026 entfernt.16 Video, Moodboards, Draft Mode und alle V7-Funktionen bleiben aktuell. Siehe Changelog für die vollständige Historie.1

Ich habe Hunderte von Stunden damit verbracht, Midjourney über sämtliche Versionen, Parameterkombinationen und Stilrichtungen hinweg zu testen. Dieser Leitfaden destilliert diese Erfahrung in die umfassende Referenz, die ich mir gewünscht hätte, als ich angefangen habe. Ob Sie gerade Ihren ersten Prompt formulieren oder die Grenzen des Möglichen ausloten – die Techniken finden Sie hier.

Midjourney ist kein magischer Prompt-zu-Bild-Konverter. Es handelt sich um ein ausgefeiltes visuelles Sprachsystem, das auf bestimmte Muster reagiert, bestimmte Hierarchien beachtet und diejenigen belohnt, die seine Architektur verstehen. Der Unterschied zwischen generischer KI-Kunst und beeindruckender, bewusst gestalteter Bildsprache liegt im Verständnis dieser Muster.

Die zentrale Erkenntnis: V7 hat die Funktionsweise von Prompts grundlegend verändert. Der alte Keyword-Ansatz („beautiful, stunning, 8k, detailed, masterpiece”) verschlechtert Ihre Ergebnisse aktiv. V7 versteht natürliche Sprache – schreiben Sie Prompts so, als würden Sie einem erfahrenen Kameramann ein Foto beschreiben, nicht als würden Sie eine Stockfoto-Datenbank verschlagworten.

Dieser Leitfaden deckt alles ab – von der ersten Installation bis hin zu fortgeschrittenen Techniken, die den meisten Nutzern verborgen bleiben. Jeder Parameter ist mit tatsächlichen Wertebereichen, realen Beispielen und den Stolperfallen dokumentiert, an denen selbst erfahrene Nutzer scheitern.


Inhaltsverzeichnis

Teil 1: Grundlagen

  1. Was ist Midjourney?
  2. Erste Schritte
  3. Grundlegende Konzepte
  4. Die Prompt-Hierarchie

Teil 2: Parameter meistern

  1. Versionsauswahl
  2. Seitenverhältnisse
  3. Stylization
  4. Chaos und Weird
  5. Experimentelle Ästhetik

Teil 3: Referenzsysteme

  1. Omni Reference
  2. Style Reference
  3. Image Weight
  4. Draft Mode

Teil 4: Videogenerierung

  1. Bild-zu-Video-Grundlagen
  2. Verlängern und Schleifen
  3. Best Practices für Video

Teil 5: Genre-Vorlagen

  1. Filmischer Realismus
  2. Porträtfotografie
  3. Produktfotografie
  4. Fantasy und Sci-Fi
  5. Anime mit Niji 7
  6. Architektur
  7. Abstrakt und Experimentell

Teil 6: Fortgeschrittene Techniken

  1. Wortgewichtung
  2. Negative Prompts
  3. Seed-Kontrolle
  4. Komposition mit mehreren Motiven
  5. Textdarstellung

Teil 7: Workflows und Optimierung

  1. Der Iterationszyklus
  2. Kostenmanagement
  3. Fehlerbehebung
  4. Versionsmigration

Teil 8: Referenz

  1. Parameter-Spickzettel
  2. Änderungsprotokoll

Was ist Midjourney?

Midjourney ist ein generatives KI-System, das Bilder aus Textbeschreibungen erstellt. Anders als bei herkömmlicher Bildbearbeitung oder Stockfotografie beschreiben Sie, was Sie sehen möchten, und Midjourney generiert originale Bilder, die Ihrer Vorstellung entsprechen.

Was Midjourney von anderen unterscheidet:

Aspekt Midjourney Wettbewerber
Bildqualität Branchenführende Ästhetik Unterschiedlich
Natürliche Sprache V7 versteht ganze Sätze Häufig schlagwortabhängig
Fotorealismus Herausragend mit V7 Gut bis ausgezeichnet
Anime/Illustration Niji-Modelle speziell optimiert Universell einsetzbar
Video Native Unterstützung (Juni 2025) Erfordert separate Tools
Community Integriertes Teilen/Entdecken Variiert

Was Sie erstellen können:

  • Fotorealistische Bilder: Porträts, Produkte, Architektur, Natur
  • Illustrationen: Concept Art, Buchcover, Editorials
  • Anime und Manga: Über spezialisierte Niji-Modelle
  • Abstrakte Kunst: Experimentelle, surreale Kompositionen
  • Videos: 5–21 Sekunden lange animierte Clips aus Bildern

Was Midjourney nicht ist:

  • Kein Bildbearbeitungsprogramm (dafür gibt es Photoshop)
  • Kein System mit konsistenten Charakteren (noch nicht – verbessert sich schnell)
  • Kein Werkzeug zur Nachbildung bestimmter urheberrechtlich geschützter Figuren
  • Nicht kostenlos (Abonnements von 10–120 $/Monat)

Erste Schritte

Kontoeinrichtung

  1. Besuchen Sie midjourney.com
  2. Melden Sie sich an mit Discord oder erstellen Sie ein Konto
  3. Wählen Sie ein Abonnement:
Tarif Preis Fast GPU Relax GPU Video Relax
Basic 10 $/Monat 3,3 Std.
Standard 30 $/Monat 15 Std. Unbegrenzt
Pro 60 $/Monat 30 Std. Unbegrenzt Ja
Mega 120 $/Monat 60 Std. Unbegrenzt Ja

Expertentipp: Beginnen Sie mit Standard (30 $/Monat). Der unbegrenzte Relax-Modus ist unverzichtbar zum Experimentieren – Sie werden Ihre Fast-Stunden beim Lernen schnell aufbrauchen.

Ihr erster Prompt

Öffnen Sie die Web-Oberfläche unter midjourney.com/imagine und geben Sie ein:

A golden retriever sitting in autumn leaves, soft afternoon sunlight

Das war’s. Keine spezielle Syntax nötig. V7 versteht natürliche Sprache.

Was Sie erhalten: Vier Variationen eines Golden Retrievers in herbstlicher Kulisse. Von hier aus können Sie:

  • Upscale: Klicken Sie auf U1–U4, um eine hochauflösende Version zu generieren
  • Vary: Klicken Sie auf V1–V4, um dezente Variationen zu erstellen
  • Reroll: Vier neue Variationen mit demselben Prompt generieren

Web vs. Discord

Funktion Web-Oberfläche Discord
Benutzerfreundlichkeit Einfacher Steilere Lernkurve
Bildorganisation Integrierte Galerie Verstreut in Kanälen
Videogenerierung Volle Unterstützung Nicht verfügbar
Prompt-Bearbeitung Visuelle Oberfläche Textbefehle
Community Explore-Tab Kanalübersicht
Empfehlung Hier starten Für Fortgeschrittene

Die Web-Oberfläche ist mittlerweile die primäre Benutzeroberfläche. Discord funktioniert, bietet aber keine Videogenerierung und hat einen weniger intuitiven Workflow.


Grundlegende Konzepte

Wie Prompts funktionieren

Jeder Midjourney-Prompt wird durch eine Pipeline verarbeitet:

Your Text Prompt
      
[Text Encoder]  Converts words to mathematical embeddings
      
[Diffusion Model]  Generates image from noise, guided by embeddings
      
[Upscaler]  Increases resolution and detail
      
Final Image

Was das für Sie bedeutet:

  1. Wortreihenfolge ist wichtig: Wörter am Anfang haben mehr Einfluss als spätere
  2. Präzision gewinnt: „golden hour sunlight casting long shadows” schlägt „nice lighting”
  3. Widersprüche verwirren: „dark, bright, moody, cheerful” hebt sich gegenseitig auf
  4. Weniger ist oft mehr: 50–150 Token übertreffen in der Regel 300+ Token

Die Token-Ökonomie

Midjourney sieht nicht Ihre Wörter – es sieht Token (ungefähr Wortfragmente).

Token-Anzahl Wirkung Ideal für
10–30 Sehr offene Interpretation Abstrakt, experimentell
30–80 Ausgewogene Kontrolle Die meisten Prompts
80–150 Detaillierte Kontrolle Spezifische Szenen
150+ Abnehmender Ertrag Kann Konflikte verursachen

Expertentipp: Wenn Ihr Prompt 150 Token überschreitet, spezifizieren Sie wahrscheinlich zu viel. Streichen Sie überflüssige Adjektive.

Qualitätssignale

V7 reagiert besonders stark auf bestimmte beschreibende Muster:

Beleuchtung (größter Einfluss): - „golden hour light casting long shadows across weathered stone” - „Rembrandt lighting with soft fill from camera left” - „bioluminescent glow illuminating the fog”

Materialien und Texturen: - „oxidized copper with verdigris patina” - „worn leather showing decades of use” - „translucent jade catching the light”

Atmosphäre und Stimmung: - „melancholic twilight atmosphere” - „oppressive industrial ambiance” - „ethereal dreamlike quality”

Technische Kamerabegriffe: - „shot on medium format, shallow depth of field” - „85mm lens, f/1.8 aperture” - „anamorphic lens flare, 2.39:1 aspect”


Die Prompt-Hierarchie

Jeder effektive Prompt folgt einer Hierarchie. Wörter an der Spitze haben den größten Einfluss.

┌─────────────────────────────────────────────────┐
  1. SUBJECT (who/what)           Most important 
     "elderly fisherman"                          
├─────────────────────────────────────────────────┤
  2. SUBJECT DETAILS (descriptors)               
     "weathered face, silver beard, kind eyes"   
├─────────────────────────────────────────────────┤
  3. CONTEXT (where/when)                        
     "on a wooden dock at dawn"                  
├─────────────────────────────────────────────────┤
  4. STYLE/MOOD (how it feels)                   
     "documentary photography, contemplative"     
├─────────────────────────────────────────────────┤
  5. TECHNICAL (camera/lighting)                 
     "shot on Leica, natural morning light"      
├─────────────────────────────────────────────────┤
  6. PARAMETERS (--ar, --s, etc.)   Fine-tuning 
     "--ar 3:2 --s 100 --v 7"                    
└─────────────────────────────────────────────────┘

Prompt-Vorlage

[SUBJECT] [SUBJECT DETAILS], [CONTEXT], [STYLE/MOOD], [TECHNICAL] --parameters

Beispiel nach der Hierarchie:

An elderly fisherman with a weathered face and silver beard, standing on a
wooden dock at dawn, documentary photography style, contemplative mood,
shot on Leica M11 with natural morning light, soft mist rising from the water
--ar 3:2 --s 100 --v 7

Was die meisten Nutzer übersehen: Sie beginnen mit dem Stil („beautiful cinematic photo of…”) statt mit dem Motiv. V7 gewichtet frühe Token stark – beginnen Sie mit dem, was Sie tatsächlich sehen möchten.


Versionsauswahl

V8 Alpha (17. März 2026)

V8 ist Midjourneys Modell der nächsten Generation, derzeit im Alpha-Test auf alpha.midjourney.com.21

Stärken: - ~5x schnellere Bildgenerierung als V7 - Drastisch verbessertes Befolgen von Anweisungen und Kohärenz - Native 2K-Auflösung über den Parameter --hd - Bisher beste Textdarstellung (verwenden Sie “Anführungszeichen” in Prompts) - Verbessertes ästhetisches Verständnis durch Personalisierung, srefs und Moodboards - Zusätzlicher Kohärenzmodus über --q 4 - Volle Abwärtskompatibilität mit V7-Personalisierungsprofilen, Moodboards und srefs

Generierungsmodi:

Modus Geschwindigkeit Kosten Ideal für
Fast ~5x schneller als V7 1x Standard-Workflow
--hd 4x langsamer 4x Native 2K-Auflösung
--q 4 4x langsamer 4x Zusätzliche Kohärenz
--sref / Moodboard 4x langsamer 4x Stilgeführte Generierung

Bekannte Einschränkungen (Alpha): - Relax-Modus noch nicht verfügbar — neue Server-Infrastruktur in Entwicklung - Basic-/Standard-Nutzer benötigen ausschließlich den Fast-Modus - Image Prompting und Variationen können sich anders verhalten als bei V7

Neue UI-Funktionen: - Konversationsmodus für natürlichsprachlichen Ablauf - „Grid Mode” zum Fokussieren auf große Bildsets - Einstellungen in Seitenleisten (verdecken nicht mehr die Ansicht)

Verwendung:

a weathered lighthouse on volcanic cliffs at golden hour,
dramatic clouds, crashing waves --v 8 --hd

Wann Sie V8 verwenden sollten: - Wenn Sie die schnellste Generierung wünschen - Für textlastige Bilder - Wenn Kohärenz am wichtigsten ist - Um die native 2K-Auflösung zu nutzen

V7 (Standard seit Juni 2025)

V7 ist Midjourneys aktuelles Flaggschiff-Modell, veröffentlicht am 3. April 2025.2

Stärken: - Verständnis natürlicher Sprache (schreiben Sie Sätze, keine Schlüsselwörter) - Bisher bester Fotorealismus - Drastisch verbesserte Textdarstellung - Bessere menschliche Anatomie (Hände, Körper) - Verbesserte räumliche Beziehungen - Personalisierung standardmäßig aktiviert

Generierungsmodi:

Modus Geschwindigkeit Kosten Ideal für
Turbo Am schnellsten 2x normal Finale Renders bei Zeitdruck
Fast Normal 1x Standard-Workflow
Relax Warteschlange Inklusive Exploration, Lernen
Draft 10x schneller 0,5x Schnelle Iteration

Wann Sie V7 verwenden sollten: - Fotorealistische Bilder - Alle Prompts mit komplexer natürlicher Sprache - Textdarstellung - Wenn Qualität am wichtigsten ist

Niji 7 (Januar 2026)

Niji 7 ist das spezialisierte Anime-/Manga-Modell, veröffentlicht am 9. Januar 2026.3

Stärken: - Kristallklare Augen, Reflexionen und feine Hintergrunddetails3 - Verbesserte Kohärenz bei komplexen Posen und Mehrarmsituationen - Wörtlichere Prompt-Interpretation — präziser Umgang mit spezifischen Farbpositionen und Frisuren - Bessere Textdarstellung - Verbesserte --sref-Leistung mit deutlich reduziertem Style Drift3 - Klare, flache Linienführung zur Hervorhebung der verbesserten Linienqualität

Einschränkungen: - --cref wird NICHT unterstützt — das Team deutet eine „leistungsfähigere geheime Überraschung” als Alternative an3 - Personalisierung (--p) und Moodboards werden seit dem 26. Februar 2026 vollständig unterstützt19 - Wörtlicher als frühere Niji-Versionen — passen Sie stimmungsbasierte Prompts entsprechend an

Demnächst: - Neues Zeichenreferenzsystem als Ersatz für --cref (soll die Fähigkeiten von --cref übertreffen)

Verwendung:

A determined young mage with crimson hair, casting fire magic,
intense expression, ancient library background --niji 7

Wann Sie Niji 7 verwenden sollten: - Anime- und Manga-Illustrationen - Charakterdesign - Östliche Ästhetik-Illustrationen - Wenn Sie sauberere Linienführung wünschen

Niji 6 (Legacy)

Weiterhin für Abwärtskompatibilität verfügbar.

Wann Sie Niji 6 verwenden sollten: - Sie benötigen Stil-Voreinstellungen (--style expressive, --style cute, --style scenic) - Ihr Workflow hängt von --cref ab - Sie bevorzugen die weichere, weniger wörtliche Interpretation

Stile:

--niji 6 --style expressive  # Dynamic, stylized
--niji 6 --style cute        # Kawaii aesthetic
--niji 6 --style scenic      # Background focus
--niji 6 --style original    # Classic Niji look

Versionsvergleich

Funktion V7 Niji 7 Niji 6
Fotorealismus Ausgezeichnet N/A N/A
Anime Gut Ausgezeichnet Ausgezeichnet
Natürliche Sprache Am besten Gut Mittel
Textdarstellung Am besten Gut Eingeschränkt
--oref Ja Nein Nein
--cref Nein Nein Ja
--sref Ja Ja (am besten) Ja
--p Ja Ja (Feb. 2026)19 Optional
Stil-Voreinstellungen Nein Nein Ja

V8-Entwicklungsstatus (März 2026)

Laut den Office Hours vom 4. März 2026 ist V8 funktional vollständig und startbereit.18 Der Destillationslauf (Geschwindigkeitsoptimierung) steht kurz bevor und dauert etwa eine Woche; nach Abschluss wird V8 als optionales, nicht standardmäßiges Modell für eine ca. 30-tägige Pre-Alpha-Phase veröffentlicht, bevor es V7 als Standard ablöst.1618 Guides und Moderatoren begannen Ende Januar mit internen Tests, gefolgt von mehreren Community-Bewertungsrunden bis Mitte Februar.912

Bestätigte V8-Funktionen: - Native 2K-Auflösung (2048px) — macht den Upscaler überflüssig und liefert genuinschärfere Ergebnisse14 - Massive Verbesserungen bei der Textdarstellung (V7s schwächster Bereich)14 - Bessere Generierung komplexer Motive (Kreaturen, Zentauren, ungewöhnliche Anatomie) - Vollständig neu geschriebene Architektur (neue Codebasis, unterstützt 64px bis 2048px+ nativ)14 - Style References, Moodboards, Personalisierung und der Weird-Parameter werden unterstützt12 - Style Creator und Web-Profile zum Teilen von Stilen in der Community11 - Upscaling und Bearbeitungsfunktionen integriert12 - Neuer Erstellungsablauf: 64 Bilder bei 256px zur schnellen Exploration, dann Favoriten auswählen und hochskalieren10 - Infrastrukturwechsel von TPUs zu GPUs mit PyTorch (besser unterstützte Codebasis, schnellere Personalgewinnung)11 - V8-„Mini”-Variante für leistungsschwächere Hardware konzipiert11 - Vorantreiben der Echtzeit-Vorschaugenerierung - Geschwindigkeitsgewinne: erheblich selbst für Turbo-Nutzer und drastisch für Nicht-Turbo-Workflows18

Einschränkungen zum Start: - Image Prompting und Variationen können sich während des initialen Rollouts anders verhalten18 - Der Relax-Modus wird zum V8-Start nicht verfügbar sein — Basic- und Standard-Nutzer benötigen während der Anfangsphase ausschließlich den Fast- oder Turbo-Modus20 - Einige Funktionen werden basierend auf Nutzerfeedback nach dem Start verfeinert18

Zeitplan (Stand: 13. März 2026): - Interne Tests: Januar 20269 - Bewertungsrunden: Anfang bis Mitte Februar 202612 - Letzte Bewertungsrunde (V8-Personalisierungskalibrierung): 20. Februar 202620 - Funktional vollständig: bestätigt am 4. März 202618 - Destillationslauf: steht kurz bevor (~1 Woche Dauer)18 - Veröffentlichung: erwartet Mitte März 2026 als Opt-in, nicht Standard1618 - Pre-Alpha: ~30 Tage nach der Opt-in-Veröffentlichung, dann wird es zum Standard16 - Verbesserungen der mobilen App nach V8-Start geplant9 - 3D-Funktionalität mit Kamerabewegung und Neuausrichtung in Entwicklung9

Was nach V8 kommt: - Bearbeitungsmodell (erste Priorität nach V8-Start)18 - V2-Videomodell (neuer Rechencluster im März 2026 ermöglicht Training deutlich größerer Videomodelle)18 - Hardware-Projekte: vier in Arbeit, darunter ein tragbares Gerät und ein Montageprojekt in Lagerhausgröße10 - Batch-Modus-Erweiterung mit Lernensystem für Nutzerpräferenzen9 - Echtzeit-KI-Modelle als langfristiges Ziel9


Seitenverhältnisse

Der Parameter --ar legt die Bildabmessungen fest. Standard ist 1:1 (quadratisch).

Gängige Verhältnisse

Verhältnis Abmessungen Verwendungszweck
1:1 Quadrat Social Media, Icons
4:5 Hochformat Instagram-Feed, Mobilgeräte
5:4 Querformat Desktop, Präsentationen
16:9 Breitbild YouTube, Präsentationen
6:11 Hohes Hochformat Handy-Wallpaper, vertikale Poster
9:16 Vertikal Stories, TikTok, Mobilgeräte
21:9 Ultrabreit Filmisch, Kino
3:2 Klassisch Fotoabzüge
2:3 Hochformat Vertikale Abzüge

Plattformspezifische Empfehlungen

Plattform Verhältnis Hinweise
Instagram Feed 1:1 oder 4:5 4:5 nimmt mehr Bildschirmfläche ein
Instagram Story 9:16 Vollständig vertikal
Twitter/X 16:9 oder 1:1 16:9 expandiert im Feed
LinkedIn 1.91:1 oder 16:9 Professionelles Querformat
Pinterest 2:3 Vertikale Formate performen am besten
YouTube Thumbnail 16:9 Standard-Videoformat
Desktop-Wallpaper 16:9 oder 21:9 Passend zum Monitor

Auswirkung auf die Komposition

Das Seitenverhältnis bestimmt nicht nur die Abmessungen — es verändert grundlegend die Bildkomposition.

Breite Verhältnisse (16:9, 21:9): - Betonen Umgebung und Kontext - Natürlich für Landschaften und Stadtansichten - Filmische Wirkung - Das Motiv wird Teil einer Szene

Hohe Verhältnisse (4:5, 9:16): - Lenken die Aufmerksamkeit auf das Motiv - Natürlich für Porträts und Produkte - Intime Wirkung - Mehr vertikale Information

Expertentipp: Für filmische Porträts eignet sich 4:5 oft besser als das naheliegende 16:9. Sie erhalten den motivfokussierten Bildausschnitt eines Hochformats mit genügend Kontext für visuelles Erzählen.


Stilisierung

Der Parameter --s steuert, wie stark V7 künstlerisch interpretiert. Bereich: 0–1000. Standard: 100.

Stilisierungsbereiche

Bereich Wirkung Ideal für
0–50 Minimale Interpretation Produktfotos, technische Genauigkeit
50–150 Ausgewogen (Standard) Allgemeine Verwendung, Porträts
150–300 Spürbare Stilisierung Künstlerische Fotos, Stimmungsbilder
300–500 Starke Stilisierung Illustrationen, Konzeptbilder
500–1000 Sehr stilisiert Abstrakt, experimentell

Visuelle Beispiele

Portrait of a woman, soft window light --s 50
# Result: Clean, realistic, minimal embellishment

Portrait of a woman, soft window light --s 250
# Result: More artistic interpretation, enhanced mood

Portrait of a woman, soft window light --s 600
# Result: Distinctly stylized, dreamlike quality

Entscheidungshilfe

Niedrige Stilisierung (0–100) verwenden, wenn: - Produktfotografie erstellt wird - Sie fotorealistische Genauigkeit wünschen - Technische oder dokumentarische Bilder benötigt werden - Der Prompt wörtlich interpretiert werden soll

Mittlere Stilisierung (100–300) verwenden, wenn: - Allgemeine kreative Arbeit ansteht - Redaktionelle Fotografie gewünscht ist - Verbesserung ohne Extreme gewünscht wird - Ein Gleichgewicht zwischen realistisch und künstlerisch gefragt ist

Hohe Stilisierung (300+) verwenden, wenn: - Illustrationen oder Konzeptkunst erstellt werden - Abstrakte oder experimentelle Arbeit geplant ist - Midjourneys eigene Ästhetik dominieren soll - Kreative Grenzen ausgelotet werden sollen

Stilisierung + Style Raw

Für maximalen Fotorealismus kombinieren Sie niedrige Stilisierung mit --style raw:

Portrait of a businessman, office background --s 50 --style raw --v 7

--style raw weist V7 an, die eigene ästhetische Interpretation zu minimieren, sodass die Ergebnisse näher an der wörtlichen Prompt-Umsetzung liegen.


Chaos und Weird

Chaos (–chaos 0-100)

Steuert die Variation zwischen den vier generierten Bildern. Standard: 0.

Wert Wirkung
0 Sehr ähnliche Ergebnisse
25 Leichte Variationen
50 Moderate Vielfalt
75 Hohe Vielfalt
100 Maximale Unberechenbarkeit

Wann Sie Chaos verwenden sollten: - Explorationsphase: --chaos 50-75 für vielfältige Interpretationen - Finales Render: --chaos 0-25 für konsistente Ergebnisse - Richtung finden: Hoher Chaos-Wert zu Beginn, niedrig für die Verfeinerung

Weird (–weird 0-3000)

Erzeugt unkonventionelle, unerwartete Ästhetik. Standard: 0.

Bereich Wirkung
0 Standard-Ästhetik
100–500 Subtile Eigenheiten
500–1000 Spürbare Fremdartigkeit
1000–2000 Sehr ungewöhnlich
2000–3000 Maximale Seltsamkeit

Wann Sie Weird verwenden sollten: - Surreale oder traumhafte Bilder - Ausbruch aus generischer KI-Ästhetik - Konzeptkunst-Exploration - Wenn „normal” zu vorhersehbar wirkt

Chaos und Weird kombinieren

--chaos 50 --weird 500   # Varied outputs, each slightly quirky
--chaos 100 --weird 0    # Wild variations, normal aesthetic
--chaos 25 --weird 2000  # Similar outputs, all very weird

Expertentipp: Hohe Weird-Werte können genuinungewöhnliche Bilder erzeugen, sind allerdings inkonsistent. Nutzen Sie diese für die Exploration und reduzieren Sie den Wert für finale Renders.


Experimentelle Ästhetik

Der Parameter --exp fügt verbesserte Details, Dynamik und Tone-Mapping-Effekte hinzu. Bereich: 0–100. Standard: 0.

Effektstufen

Wert Effekt Hinweise
0 Aus (Standard) Standardwiedergabe
5 Dezente Verbesserung Lässt sich sicher mit anderen Parametern kombinieren
10 Spürbar mehr Details Guter Ausgangspunkt
25 Starker Effekt Empfohlenes Maximum bei Kombinationen
50 Sehr stark Kann die Prompt-Genauigkeit verringern
100 Maximum Kann –stylize und –p überlagern

Was –exp bewirkt

  • Detailreichere Texturen und Oberflächen
  • Dynamischere, ausdrucksstärkere Kompositionen
  • Tone-Mapping mit HDR-ähnlicher Anmutung
  • Insgesamt mehr visuelles Interesse

Empfohlene Kombinationen

--exp 10 --s 200           # Enhanced detail, balanced style
--exp 25 --s 100           # Strong exp, controlled stylize
--exp 5 --style raw        # Subtle boost for photorealism

Warnung: Parameterkonflikte

Bei hohen Werten (über 25–50) kann --exp: - --stylize-Einstellungen überlagern - Personalisierung (--p) außer Kraft setzen - Die Bildvielfalt verringern

Expertentipp: Halten Sie --exp für die meisten Arbeiten bei 10–25. Höhere Werte eignen sich für gezielte stilistische Effekte, nicht zur allgemeinen Qualitätsverbesserung.


Omni Reference

Der Parameter --oref überträgt Merkmale eines Motivs aus einem Referenzbild auf Ihre Generierung. In V7 hat er --cref abgelöst.

Grundlegende Verwendung

/imagine A woman in a red dress at a gala --oref [image URL]

Was übertragen wird: - Gesicht und Gesichtszüge - Körperbau und Proportionen - Kleidung und Accessoires - Gesamte Identität

Gewichtungssteuerung (–ow)

--ow 0-1000    # Omni weight (default 100)
Gewichtung Effekt
0–30 Lose Inspiration, lässt Stiländerungen zu
30–60 Moderater Einfluss
60–100 Starke Ähnlichkeit (Standardbereich)
100–300 Sehr enge Übereinstimmung
300–1000 Maximale Wiedergabetreue

Gewichtungs-Wechselwirkungen

Der Parameter --ow konkurriert mit --stylize und --exp um Einfluss. Erhöhen Sie bei hohen Stylize- oder Exp-Werten den --ow-Wert, um die Konsistenz zur Referenz beizubehalten:

# High stylize needs higher ow to keep reference
--oref [url] --ow 200 --s 400

# High exp overwhelms default ow
--oref [url] --ow 300 --exp 25

# If you aren't using high stylize/exp, stay at moderate ow (100-400)

Expertentipp: Ohne extreme --stylize- oder --exp-Werte reicht ein --ow unter 400 für die meisten Anwendungen völlig aus. Gehen Sie nur bei Bedarf höher – etwa wenn exakte Gesichtszüge oder Kleidungsdetails gegen starke Stilparameter bewahrt werden müssen.

Best Practices

Die Qualität des Referenzbildes ist entscheidend: - Hohe Auflösung, deutlich erkennbares Motiv - Frontalaufnahmen funktionieren am besten für Gesichter - Konsistente Beleuchtung im Referenzbild - Möglichst wenig ablenkender Hintergrund

Gewichtung bei Stilwechseln anpassen:

# Photo to anime conversion - lower weight
--oref [photo URL] --ow 40 --niji 7

# Maintaining strict likeness
--oref [photo URL] --ow 200 --v 7

Kombination mit style reference:

# Subject from one image, style from another
--oref [subject URL] --sref [style URL] --ow 100 --sw 150

Style Reference

Der Parameter --sref überträgt ästhetische Eigenschaften eines Referenzbildes.

Grundlegende Verwendung

/imagine A mountain landscape at sunset --sref [style image URL]

Was übertragen wird: - Farbpalette - Lichtstimmung - Künstlerische Technik - Gesamte Stimmung/Atmosphäre - Kompositorische Tendenzen

Gewichtungssteuerung (–sw)

--sw 0-1000    # Style weight (default 100)
Gewichtung Effekt
0–50 Dezenter Einfluss
50–150 Ausgewogene Übertragung
150–300 Starke Stilübereinstimmung
300–1000 Dominanter Stil

Mehrere Style References

Sie können mehrere Stilbilder kombinieren:

--sref [url1] [url2]

Die Stile verschmelzen miteinander. Nutzen Sie dies, um einzigartige ästhetische Kombinationen zu schaffen.

Best Practices

Funktioniert am besten mit: - Markanten, konsistenten Stilen - Klaren ästhetischen Merkmalen - Bildern mit starker visueller Identität

Weniger effektiv bei: - Sehr generischen Fotos - Gemischten oder unklaren Stilen - Bildern, deren „Stil” nicht offensichtlich ist

Expertentipp: Niji 7 liefert die beste --sref-Leistung. Wenn Stilübertragung entscheidend ist, sollten Sie Niji 7 auch für Nicht-Anime-Inhalte in Betracht ziehen.

Alte Style-Reference-Codes verwenden

Falls Sie --sref-Codes aus der V6-Ära besitzen, funktionieren diese in V7 nicht direkt. Fügen Sie --sv 4 hinzu, um ältere Stilcodes zu nutzen:

/imagine A mountain landscape --sref 123456789 --sv 4
# --sv 4 tells V7 to interpret the code using the V6 style system
/imagine A mountain landscape --sref 123456789 --sv 6
# --sv 6 tells V7 to interpret the code using the V6.1 style system

Hinweis: Obwohl dies Abwärtskompatibilität gewährleistet, empfiehlt es sich, Style References in V7 neu zu generieren – die Ergebnisse mit dem neuen Modell fallen deutlich besser aus.


Image Weight

Der Parameter --iw steuert, wie stark ein Referenzbild Ihre Generierung beeinflusst.

Grundlegende Verwendung

/imagine [prompt] [image URL] --iw 1.5

Gewichtungsbereich

Bereich: 0–2 (Standard 1)

Gewichtung Effekt
0–0,5 Prompt dominiert
0,5–1 Ausgewogen
1–1,5 Bild dominiert
1,5–2 Starker Bildeinfluss

Anwendungsfälle

Niedrige Gewichtung (0–0,5): Das Bild dient als lose Inspiration, während der Prompt dominiert

Ausgewogen (0,5–1): Gleichmäßiger Einfluss von Prompt und Bild

Hohe Gewichtung (1,5–2): Erzeugt Variationen, die eng am Bild orientiert sind


Moodboards (Individuelle Stilprofile)

Mit Moodboards erstellen Sie personalisierte Stilprofile durch das Bewerten von Bildern. Anstatt ein einzelnes --sref-Bild zu verwenden, bauen Sie aus mehreren Beispielen eine stabile ästhetische Präferenz auf.7 Inzwischen können Sie mehrere benannte Profile anlegen, ein Standardprofil festlegen und sogar mehrere aktive Profile gleichzeitig auswählen.15

So funktionieren Moodboards

  1. Erstellen Sie ein Moodboard unter midjourney.com/personalize
  2. Bewerten Sie Bilder, indem Sie durch ein Raster von Bildern klicken und scrollen (ersetzt das alte 1-gegen-1-Vergleichssystem seit dem 26. Februar 2026) – die Einrichtung ist nun bis zu 5× schneller1519
  3. Anwenden mit --p, um Ihr Standard-Moodboard zu nutzen
  4. Anwenden mit --p [mID], um ein bestimmtes Moodboard zu nutzen
  5. Benennen und organisieren Sie mehrere Profile für verschiedene Projekte oder Mitarbeiter15

Ein stabiles Profil aufbauen

Bewertungen Stabilität
40 Minimum für ein nutzbares Profil15
200 Recht stabil, verlässliche Ergebnisse15
2.000 Maximale Verfeinerung, beste Konsistenz15

Expertentipp: Bewerten Sie mindestens 200 Bilder für ein verlässliches Moodboard. Geben Sie sowohl positive ALS AUCH negative Bewertungen ab – Ablehnungen helfen Midjourney zu verstehen, was vermieden werden soll. Außerdem lassen sich mehrere aktive Profile gleichzeitig für gemischte Ästhetik auswählen.15

Moodboards verwenden

/imagine A forest path at dawn --p
# Uses your default moodboard

/imagine A forest path at dawn --p abc123
# Uses specific moodboard with ID abc123

/imagine A forest path at dawn --profile abc123
# Alternative syntax using --profile parameter

Moodboards vs. Style Reference

Ansatz Am besten geeignet für
--sref Einmalige Stilübertragung aus einem einzelnen Bild
--p (Moodboard) Konsistente persönliche Ästhetik über Projekte hinweg

Moodboards mit –sref kombinieren

Für differenzierte Kontrolle lassen sich Moodboards und Style-Reference-Codes in einem einzigen Prompt kombinieren:17

/imagine A portrait --p --sref [url] --sw 50
# Your moodboard aesthetic + subtle style reference influence

/imagine A portrait --sref 142710498 --profile drgmjoi 2jrqbw6
# Mix sref codes with multiple moodboard profiles

Darüber hinaus können Sie Moodboard-Snapshots als Codes teilen (z. B. --profile 2jrqbw6), die andere verwenden können, oder einen Link zur Live-Version weitergeben, die sich automatisch aktualisiert, wenn Sie Ihr Profil weiter verfeinern.17


Draft Mode

Draft Mode generiert Bilder mit 10-facher Geschwindigkeit bei halben GPU-Kosten. Unverzichtbar für die Exploration.

Draft Mode aktivieren

/imagine [prompt] --draft

Alternativ lässt sich der Modus in den Einstellungen der Weboberfläche umschalten.

Vergleich: Draft vs. Full

Aspekt Draft Full
Geschwindigkeit ~10× schneller Standard
GPU-Kosten 50 % 100 %
Detailgrad Reduziert Voll
Am besten für Exploration Finale Ausgabe

Der Draft-Workflow

1. Draft Mode Exploration (--draft)
   ├── Test 5-10 variations quickly
   ├── Identify promising directions
   └── Note effective parameters

2. Full Render Refinement
   ├── Remove --draft flag
   ├── Apply learned parameters
   └── Fine-tune with --seed

Expertentipp: Beginnen Sie immer im Draft Mode. Die Kostenersparnis summiert sich, und Sie erkunden deutlich mehr Optionen. Wechseln Sie erst dann zum vollen Rendering, wenn Sie eine vielversprechende Richtung gefunden haben.


Image-to-Video – Grundlagen

Das V1 Video Model von Midjourney wurde am 19. Juni 2025 eingeführt und ermöglicht Bild-zu-Video-Animation.

So funktioniert es

  1. Wählen Sie ein beliebiges Bild (von Midjourney generiert oder hochgeladen)
  2. Klicken Sie auf „Animate”
  3. Wählen Sie Optionen (Auto, Manual, Loop)
  4. Generieren Sie einen 5-Sekunden-Videoclip

Bewegungsparameter

--motion low    # Still scenes, slow motion, subtle movement (default)
--motion high   # Big camera motions, larger character movements
--raw           # Reduces creative flair, more prompt control

Bewegungsvergleich

Einstellung Effekt Am besten für
Low Dezente, filmische Bewegung Porträts, Stillleben, Atmosphäre
High Dynamische, energiegeladene Bewegung Action, Landschaften, Menschenmengen

Warnung: Hohe Bewegungswerte können unrealistische oder fehlerhafte Bewegungen erzeugen. Beginnen Sie mit „Low” und erhöhen Sie nur bei Bedarf.

Kosten und Tarife

  • Die Standard-Batchgröße beträgt 4 Videos pro Prompt; mit --bs # auf 1 oder 2 reduzieren, um GPU-Zeit zu sparen
  • Standard, Pro und Mega können HD-Video generieren (nur im Fast Mode)
  • Nur Pro und Mega erhalten Relax Mode für Video (nur SD)
Tarif Fast Video Relax Video HD Video
Basic Ja Nein Nein
Standard Ja Nein Ja (nur Fast)
Pro Ja Ja (nur SD) Ja (nur Fast)
Mega Ja Ja (nur SD) Ja (nur Fast)

HD Video Mode

Der HD Video Mode (eingeführt im August 2025) liefert 4× schärfere Auflösung – die vierfache Pixeldichte für deutlich verbesserte Videoqualität.8

So verwenden Sie HD Video: 1. Generieren Sie zunächst ein Standardvideo 2. Klicken Sie beim fertigen Video auf die HD-Option 3. Warten Sie auf das hochauflösende Rendering

HD-Video-Kosten: - Kostet etwa 3,2× mehr als Standardvideo - Nur in den Tarifen Pro und Mega verfügbar - Setzt ein Standardvideo voraus (kein direktes HD-Rendering möglich)

Modus Auflösung Batch 1 Batch 2 Batch 4 (Standard)
Standard (SD) Basis 2 Min. 4 Min. 8 Min.
High Definition (HD) 4× Pixel 7 Min. 13 Min. 26 Min.

Wann Sie HD verwenden sollten: - Finale Lieferungen und Assets - Große Displays oder Projektionen - Professionelle/kommerzielle Arbeiten - Wenn Details in der Bewegung entscheidend sind

Expertentipp: Testen Sie immer zuerst in SD. HD dauert länger und kostet mehr – upgraden Sie nur Ihre besten Clips.


Verlängern und Schleifen

Videos verlängern

Jedes Video lässt sich um jeweils 4 Sekunden verlängern, bis zu 4 Mal (maximal 21 Sekunden).

Verlängerungsoptionen: - Auto: Setzt das Video automatisch fort - Manual: Prompt vor der Verlängerung anpassen

Best Practices für Verlängerungen: - Planen Sie Ihren Erzählbogen vor dem Start - Die ersten 5 Sekunden sollten die Szene etablieren - Jede Verlängerung sollte einen klaren Zweck haben - Bedenken Sie das Pacing – 21 Sekunden sind länger, als man denkt

Schleifen erstellen

Die Loop-Option erzeugt nahtlos wiederholende Videos, bei denen erstes und letztes Bild übereinstimmen.

Select image  Click "Loop"  Generate

Am besten geeignet für: - Hintergrundanimationen - Social-Media-Inhalte - Ambient-Visuals - Cinemagraphs

Tipps für bessere Schleifen: - Einfache, wiederholbare Bewegungen funktionieren am besten - Vermeiden Sie komplexe Kamerabewegungen - Atmosphärische Elemente (Wolken, Wasser, Feuer) lassen sich von Natur aus gut schleifen

Best Practices für Video

Wann Sie Video einsetzen sollten

Gute Kandidaten für Video: - Atmosphärische Szenen (Nebel, Regen, Feuer) - Subtile Bewegungen (Haare, Stoff, Wasser) - Landschaften mit Umgebungsbewegung - Porträts mit minimaler Bewegung

Weniger ideal für Video: - Komplexe Actionsequenzen - Szenen mit mehreren Charakteren - Präzise Choreografie - Anforderungen an technische Genauigkeit

Optimierung für Video

Vor der Animation: 1. Erzeugen Sie zuerst das perfekte Standbild 2. Überlegen Sie, wie sich Elemente bewegen könnten 3. Vermeiden Sie komplexe, miteinander verbundene Motive 4. Einfache Kompositionen lassen sich besser animieren

Prompt-Anpassungen:

# Good for video
Lone figure standing on cliff edge, wind blowing cape, dramatic clouds

# Less ideal for video
Group of dancers in synchronized formation, precise movements

Kostenmanagement

Bei 8-fachem Bildpreis summieren sich die Videokosten schnell:

Kosteneffizienter Workflow: 1. Erkunden Sie im Draft mode (Bilder) 2. Finden Sie die perfekte Komposition 3. Erzeugen Sie das finale hochwertige Standbild 4. Animieren Sie nur die beste Version 5. Erweitern Sie nur bei Bedarf


Filmischer Realismus

Das effektivste Muster für fotorealistische, filmische Ergebnisse.

Das filmische Template

[Shot type] by [Director], [subject physical description],
[action/pose], [costume/styling], [setting details],
captured with [Camera Body] using [Lens], [lighting description],
[mood/atmosphere summary]
--ar [ratio] --s [value] --p --no anime, cartoon, illustration, painting

Regiestile

Regisseur Visueller Stil Geeignet für
Ridley Scott Atmosphärisch, strukturiert, stimmungsvoll Sci-Fi, Historiendramen, Nahaufnahmen
Denis Villeneuve Epische Weite, karg, geometrisch Landschaften, Totalen
David Fincher Dunkel, präzise, beunruhigend Thriller, stimmungsvolle Porträts
Roger Deakins Silhouetten, natürliches Licht, poetisch Alle lichtbetonten Aufnahmen
Alfonso Cuarón Immersiv, intim, Kamerafahrten Charaktermomente, Spannung
Wes Anderson Symmetrisch, pastellfarben, verspielt Stilisierte, zentrierte Kompositionen
Christopher Nolan IMAX-Maßstab, praktisch, intensiv Action, Architektur
Terrence Malick Goldene Stunde, ätherisch, Natur Landschaften, kontemplativ

Kamerareferenz

Kamera Ästhetik Geeignet für
RED Komodo Modernes digitales Kino Nahaufnahmen, Erzählung
ARRI ALEXA Filmähnlich, satte Farben Alles im Kinobereich
ARRI Alexa Mini Wie ALEXA, kompakter Dokumentarfilm, Handkamera
ARRI ALEXA 65 Großformat, episch Landschaften, IMAX-Feeling
RED V-Raptor 8K, scharf, dynamisch Action, hohe Detailtreue
Sony Venice Vollformat, vielseitig Schwaches Licht, anamorphisch
Hasselblad Mittelformat, luxuriös Porträts, Mode
Leica M Messsucherkamera, klassisch Straße, Dokumentarfilm

Objektivpaarungen

Brennweite Effekt Geeignet für
24mm f/1.4 Weitwinkel, umgebungsbetont Landschaften, Establishing Shots
35mm f/2.0 Natürlich, vielseitig Dokumentarfilm, Straße
50mm f/1.4 Klassisch, ausgewogen Allgemein einsetzbar
85mm f/1.8 Porträt, geringe Schärfentiefe Nahaufnahmen, Porträts
105mm f/2.0 Komprimiert, intim Kopfporträts
135mm f/2.0 Maximale Kompression Enge Porträts

Vollständige filmische Beispiele

Nahaufnahme-Porträt:

Dramatic close-up portrait by Ridley Scott, young woman with pale skin
and auburn hair, intense green eyes staring directly at camera, subtle
freckles across nose, wearing dark wool coat, rain falling around her
face, captured with RED Komodo using 85mm f/1.8 lens, cold blue-silver
lighting with warm practical rim light, melancholic determined atmosphere
--ar 4:5 --s 150 --p --no anime, cartoon, illustration, painting

Filmische Totale:

Epic wide shot by Denis Villeneuve, lone figure in orange survival suit
walking across endless salt flats, geometric patterns in dried earth,
massive dust storm approaching on horizon, captured with ARRI ALEXA 65
using 24mm f/2.0 lens, harsh afternoon sun creating stark shadows,
desolate apocalyptic atmosphere
--ar 21:9 --s 200 --p --no anime, cartoon, illustration, painting

Wichtig: Verwenden Sie niemals Schauspielernamen. Beschreiben Sie Personen physisch. „Young woman with pale skin and auburn hair” statt „Emma Stone.” Schauspielernamen erzeugen einen Uncanny-Valley-Effekt.


Porträtfotografie

Beleuchtungsmuster

Muster Effekt Aufbau
Rembrandt Dramatisch, klassisch Hauptlicht 45° seitlich, erzeugt Dreieck unter dem Auge
Butterfly Glamourös, schmeichelhaft Hauptlicht von oben und vorne
Split Dramatisch, geheimnisvoll Licht von der reinen Seite
Rim/Edge Trennung, Tiefe Licht von hinten
Loop Dezenter Schatten Leichter Winkel gegenüber Rembrandt

Porträt-Template

[Subject description], [expression/emotion], [pose],
[lighting pattern] lighting, shallow depth of field,
[background description], shot on [camera] with [lens]
--ar 4:5 --s 100 --v 7

Porträtbeispiele

Umgebungsporträt:

Middle-aged craftsman with salt-and-pepper beard, focused expression,
hands working on leather saddle, Rembrandt lighting from workshop window,
shallow depth of field, blurred tool-filled background, shot on
Hasselblad with 80mm f/1.9, documentary authenticity
--ar 4:5 --s 75 --style raw --v 7

Studioporträt:

Professional woman in her 30s, confident subtle smile, shoulders
turned slightly, butterfly lighting with soft fill, pure white
seamless background, shot on Phase One with 110mm f/2.8, clean
commercial aesthetic
--ar 4:5 --s 50 --v 7

Produktfotografie

Produkt-Template

[Product] on [surface/platform], [background style],
[lighting setup], commercial photography, high detail,
[brand aesthetic description]
--ar 1:1 --s 50 --v 7 --style raw

Oberflächen- und Hintergrundoptionen

Oberflächen: - Polierter Marmor (Luxus) - Rohbeton (industriell) - Naturholz (organisch) - Gebürstetes Metall (Technik) - Farbiges Acryl (modern)

Hintergründe: - Verlauf (sanfter Übergang) - Nahtlos (einfarbig) - Kontextuell (Einsatzumgebung) - Abstrakt (künstlerisch)

Produktbeispiele

Luxus-Kosmetik:

Minimalist perfume bottle with gold cap on polished black marble surface,
gradient background from deep purple to black, dramatic rim lighting with
soft front fill, commercial photography, high detail, premium luxury
aesthetic, subtle reflections on marble
--ar 1:1 --s 25 --v 7 --style raw

Technikprodukt:

Wireless earbuds case open showing earbuds inside, floating on
pure white seamless background, soft even lighting from all sides,
commercial product photography, high detail, clean Apple-style
minimalism, subtle shadow beneath
--ar 1:1 --s 50 --v 7 --style raw

Fantasy und Sci-Fi

Fantasy-Template

[Character/scene description], [fantasy world details],
[magical elements], [lighting style],
[art style: painterly | concept art | illustration],
[artist influence if applicable]
--ar 16:9 --s 500 --weird 100 --v 7

Fantasy-Beispiele

Epische Fantasy:

Ancient elven queen seated on crystalline throne in vast cavern hall,
iridescent robes flowing with captured starlight, bioluminescent
flowers floating around her, massive glowing runes carved into
obsidian walls, ethereal volumetric lighting, painterly fantasy
illustration influenced by Craig Mullins and Alphonse Mucha
--ar 16:9 --s 600 --weird 150 --v 7

Dark Fantasy:

Battle-scarred knight in tarnished armor standing in ruined cathedral,
sword planted in cracked stone floor, pale moonlight streaming through
shattered rose window, crows circling above, mist swirling at feet,
dark atmospheric concept art, Beksinski and Zdzisław influence
--ar 16:9 --s 400 --weird 200 --v 7

Sci-Fi-Template

[Subject/scene], [technology details], [environment],
[lighting: neon | holographic | industrial | sterile],
[aesthetic: cyberpunk | hard sci-fi | retro-futurism],
[mood description]
--ar 21:9 --s 300 --v 7

Sci-Fi-Beispiele

Cyberpunk:

Solo mercenary in worn tactical gear navigating rain-soaked neon alley,
holographic advertisements flickering overhead, steam rising from
street grates, distant megastructures visible through smog, cyan and
magenta neon reflections on wet pavement, Blade Runner cyberpunk
aesthetic, oppressive urban atmosphere
--ar 21:9 --s 350 --v 7

Hard Sci-Fi:

Interior of generation ship agricultural bay, massive cylindrical
space with terraced farms curving overhead, artificial sun strip
running along central axis, workers in utilitarian jumpsuits tending
crops, visible structural engineering, hard science fiction aesthetic,
The Expanse influence, functional yet beautiful
--ar 21:9 --s 250 --v 7

Anime mit Niji 7

Eigenschaften von Niji 7

Niji 7 erzeugt sauberere, flachere Kunstwerke mit verbesserter Linienführung. Prompts werden deutlich wörtlicher interpretiert als bei früheren Versionen.

Niji 7-Template

[Character description], [pose/action], [expression],
[setting/background], [specific style notes],
[color palette]
--niji 7 --ar [ratio]

Niji 7-Beispiele

Actionszene:

Young mage with flowing crimson hair and determined golden eyes,
casting powerful fire spell with both hands raised, intense focused
expression, ancient library crumbling around her, debris floating
in magical energy, dynamic diagonal composition, warm orange and
red color palette with cool blue shadows
--niji 7 --ar 3:4

Charakterporträt:

Elegant noblewoman with silver hair in elaborate updo, wearing dark
blue Victorian-inspired gown with gold embroidery, subtle knowing
smile, half-body portrait, ornate palace balcony background with
moonlit garden visible, soft romantic atmosphere, detailed lace
and fabric textures
--niji 7 --ar 4:5

Stiltransfer mit Niji 7

Niji 7 bietet die beste --sref-Leistung:

[Your prompt] --niji 7 --sref [style image URL] --sw 150

Beginnen Sie mit --sw 150 und passen Sie an: - Niedrigere Werte (50–100) für subtilen Einfluss - Höhere Werte (200–300) für starke Stilanpassung

Migration von Niji 6

Niji 6-Ansatz:

anime girl, beautiful, detailed eyes, colorful --niji 6 --style expressive

Niji 7-Ansatz:

Young woman with vibrant teal hair and large expressive amber eyes,
wearing casual summer dress, cheerful smile, urban cafe background,
afternoon sunlight, contemporary anime style
--niji 7

Wesentliche Änderungen: - Verfassen Sie vollständige Beschreibungen statt Stichwortlisten - Formulieren Sie wörtlicher und spezifischer - Stilvorlagen existieren nicht mehr — beschreiben Sie, was Sie möchten - Verwenden Sie --sref für konsistenten Stil


Architektur

Architektur-Vorlage

[Building/space type], [architectural style],
[time of day/lighting], [weather/atmosphere],
[perspective: eye-level | aerial | interior | detail],
architectural photography, clean lines
--ar 16:9 --s 150 --v 7 --style raw

Architekturstile

Stil Merkmale Schlüsselwörter
Brutalist Roher Beton, massiv, geometrisch Exposed concrete, monolithic
Minimalist Klare Linien, weiß, reduziert Negative space, pure forms
Art Deco Ornamental, geometrisch, luxuriös Gold accents, sunburst patterns
Gothic Spitzbögen, vertikal, dramatisch Flying buttresses, rose windows
Japanese Holz, Papier, Naturintegration Shoji screens, engawa, zen
Parametric Fließend, computergestützt, organisch Zaha Hadid, algorithmic curves

Architektur-Beispiele

Brutalist:

Brutalist concrete museum interior with dramatic skylights, afternoon
sun creating strong geometric shadows on exposed concrete walls, vast
empty gallery space with single sculpture, eye-level perspective
showing depth and scale, architectural photography by Hélène Binet
--ar 16:9 --s 100 --v 7 --style raw

Parametric:

Futuristic parametric architecture concert hall exterior, flowing white
curves inspired by Zaha Hadid, blue hour lighting with building interior
warmly illuminated, long exposure car light trails on surrounding roads,
wide establishing shot, architectural photography
--ar 16:9 --s 150 --v 7

Abstrakt und Experimentell

Abstrakte Vorlage

[Concept/emotion to express], [visual elements],
[color palette], [texture/material qualities],
[movement/energy description], abstract composition
--s 750 --weird 500 --chaos 50 --v 7

Abstrakte Beispiele

Emotionale Abstraktion:

The feeling of nostalgia dissolving into hope, fragmented memories
reforming as light, soft blues transitioning to warm amber, watercolor
textures bleeding into geometric shapes, gentle upward movement,
abstract emotional landscape
--ar 1:1 --s 800 --weird 750 --chaos 40 --v 7

Texturale Abstraktion:

Microscopic landscape of oxidized copper and crystalline salt
formations, verdigris greens and rust oranges, extreme macro detail,
mineral textures catching diffused light, abstract geological patterns
--ar 1:1 --s 500 --weird 300 --v 7

Grenzen ausloten

Für wirklich experimentelle Arbeiten: - Setzen Sie --weird über 1000 - Kombinieren Sie mit --chaos 75+ - Verwenden Sie abstrakte, emotionale Sprache - Verweisen Sie auf unkonventionelle Künstler

The architecture of forgotten dreams, impossible geometries folding
through chromatic space, Escher meets Kandinsky, synesthetic color
relationships, visual music
--ar 1:1 --s 1000 --weird 2000 --chaos 75 --v 7

Word Weighting

Mit der :: Syntax steuern Sie die Gewichtung einzelner Elemente.

Syntax

word::2      # Double emphasis
word::1.5    # 50% more emphasis
word::1      # Normal (default)
word::0.5   # Half emphasis
word::-1     # Negative (avoid)

Beispiele

ethereal::2 portrait of a warrior, dramatic lighting::1.5, mist::0.5

Dieser Prompt bewirkt: - Starke Betonung der ätherischen Qualität - Mittlere Betonung der dramatischen Beleuchtung - Reduzierte Nebelpräsenz

Wann Sie Gewichtung einsetzen sollten

Nützlich für: - Feinabstimmung der Elementbalance - Unterdrückung unerwünschter Interpretationen - Hervorhebung zentraler Merkmale

Vermeiden Sie es bei: - Ersten Entwürfen und Exploration - Einfachen Prompts, die bereits ohne Gewichtung funktionieren - Unklarheit darüber, was betont werden soll

Expertentipp: Word Weighting ist ein Verfeinerungswerkzeug, kein erster Schritt. Bringen Sie zunächst den grundlegenden Prompt zum Laufen und nutzen Sie die Gewichtung anschließend zur Feinabstimmung.


Negative Prompts

Der --no Parameter schließt Elemente von der Generierung aus.

Grundlegende Verwendung

/imagine Beautiful landscape --no people, text, watermark

Wirksame Negative

Ziel Negative
Fotorealismus --no anime, cartoon, illustration, painting, drawing
Sauberes Bild --no text, watermark, signature, frame, border
Natürlicher Look --no oversaturated, HDR, artificial
Seriöser Ton --no cute, chibi, kawaii
Einfache Komposition --no busy, cluttered, crowded

Best Practices

Empfohlen: - Verwenden Sie spezifische, klare Begriffe - Beheben Sie tatsächliche Probleme in Ihren Ergebnissen - Halten Sie die Liste fokussiert (3–5 Einträge)

Vermeiden Sie: - Erschöpfende Listen mit allem, was Sie nicht möchten - Vage Begriffe („bad”, „ugly”) - Negierung von Elementen, die ohnehin unwahrscheinlich erscheinen würden

Das Cinematic Negative

Für konsistente fotorealistische Ergebnisse:

--no anime, cartoon, illustration, painting, drawing, sketch, CGI, 3D render

Seed-Kontrolle

Seeds ermöglichen Reproduzierbarkeit und kontrollierte Variation.

Grundlegende Verwendung

/imagine [prompt] --seed 12345

Gleicher Prompt + gleicher Seed = sehr ähnliches Ergebnis.

Seeds finden

Klicken Sie nach der Generierung auf die Bildinformationen, um den verwendeten Seed zu finden. Notieren Sie ihn zur Reproduktion.

Seed-Workflows

Variations-Workflow: 1. Generieren Sie mit zufälligem Seed 2. Finden Sie ein Ergebnis, das Ihnen gefällt 3. Notieren Sie den Seed 4. Nehmen Sie kleine Prompt-Änderungen mit demselben Seed vor 5. Vergleichen Sie die Variationen

Batch-Konsistenz:

Scene in morning light --seed 54321
Scene in afternoon light --seed 54321
Scene in evening light --seed 54321

Derselbe Seed über verwandte Prompts hinweg erzeugt konsistentere Kompositionen.


Multi-Subject-Komposition

Komplexe Szenen mit mehreren Motiven erfordern eine sorgfältige Prompt-Konstruktion.

Hierarchie-Ansatz

Listen Sie die Motive in der Reihenfolge ihrer Wichtigkeit auf:

[Primary subject], [secondary subject], [tertiary subject],
[their relationship/interaction], [setting], [style]

Räumliche Sprache

Verwenden Sie klare räumliche Beschreibungen:

In the foreground, [subject A]
In the middle ground, [subject B]
In the background, [subject C]

Oder:

On the left, [subject A]
In the center, [subject B]
On the right, [subject C]

Beispiel

Elderly grandmother and young granddaughter baking together in
sunlit kitchen, grandmother guiding child's hands rolling dough,
flour dusting the wooden counter, warm afternoon light from window,
vintage kitchen appliances in background, intimate family moment,
documentary photography style
--ar 3:2 --s 100 --v 7

Textdarstellung

V7 hat die Textdarstellung in Bildern drastisch verbessert.

Best Practices

Halten Sie Text kurz: - Einzelne Wörter funktionieren am besten - Kurze Phrasen (2–4 Wörter) funktionieren meistens - Lange Sätze scheitern häufig

Verwenden Sie Anführungszeichen:

Neon sign reading "OPEN" in storefront window

Spezifizieren Sie die Typografie:

Vintage poster with "JAZZ NIGHT" in art deco typography

Text-Beispiele

Beschilderung:

Rainy city street at night, neon diner sign reading "EAT" glowing
red through rain-streaked window, film noir atmosphere
--ar 16:9 --s 150 --v 7

Typografie:

Minimalist book cover design, large serif typography reading "THE END"
centered on cream paper texture, literary fiction aesthetic
--ar 2:3 --s 100 --v 7

Einschränkungen

Die Textdarstellung hat weiterhin Schwierigkeiten mit: - Langen Sätzen - Komplexen Schriftarten - Kleinem Text in detailreichen Bildern - Mehreren Textelementen

Expertentipp: Falls der Text entscheidend ist, generieren Sie das Bild ohne Text und fügen Sie die Typografie in der Nachbearbeitung hinzu.


Der Iterationskreislauf

Professioneller Workflow für Midjourney:

Phase 1: Erkunden (Draft Mode)

1. Enable Draft mode (--draft)
2. Write basic prompt with core concept
3. Generate 4-8 batches quickly
4. Identify promising directions
5. Note what works/doesn't

Ziel: Richtung finden, nicht Perfektion. Geschwindigkeit zählt.

Phase 2: Verfeinern

1. Disable Draft mode
2. Take best concepts from Phase 1
3. Add specific details
4. Adjust parameters (--s, --chaos, etc.)
5. Generate in Fast mode
6. Compare variations

Ziel: Eingrenzen auf 2–3 starke Optionen.

Phase 3: Perfektionieren

1. Select best candidate
2. Note the seed
3. Make micro-adjustments to prompt
4. Use same seed for consistency
5. Upscale final choice

Ziel: Den Favoriten polieren.

Zeitverteilung

Phase Anteil Modus
Erkunden 60 % Draft
Verfeinern 30 % Fast
Perfektionieren 10 % Fast

Die meisten Benutzer kehren dieses Verhältnis um und verbringen zu viel Zeit mit der Perfektionierung erster Versuche. Erkunden Sie mehr, perfektionieren Sie weniger.

Describe im Web

Klicken Sie mit der rechten Maustaste auf ein beliebiges Bild in der Weboberfläche und wählen Sie „Describe”, um vier Textprompts aus dem Bild zu generieren.17 Dies ist unverzichtbar für das Reverse Engineering von Stilen, die Sie bewundern – beschreiben Sie ein Bild von der Explore-Seite und passen Sie die resultierenden Prompts an Ihre Vision an. Prompts werden beim Aktualisieren der Seite automatisch gelöscht.


Kostenmanagement

GPU-Zeit verstehen

  • Fast Mode: Verbraucht GPU-Stunden aus Ihrem Abonnement
  • Relax Mode: Unbegrenzt, aber in Warteschlange (Standard+-Pläne)
  • Draft Mode: Halbe GPU-Kosten im Vergleich zu regulär
  • Video: Etwa 8-fache Kosten im Vergleich zu Bildern

Abonnement-Wert

Plan Fast-Stunden Relax Video Relax $/ GPU-Stunde
Basic 3,3 Std. Nein Nein $3,03
Standard 15 Std. Ja Nein $2,00
Pro 30 Std. Ja Ja $2,00
Mega 60 Std. Ja Ja $2,00

Erkenntnis: Standard+-Pläne bieten ein deutlich besseres Preis-Leistungs-Verhältnis pro GPU-Stunde, zuzüglich unbegrenztem Relax.

Strategien zur Kosteneinsparung

  1. Erkunden Sie im Draft Mode – Halbe Kosten, 10-fach schneller
  2. Nutzen Sie Relax zur Exploration – Kostenlos (Standard+)
  3. Sparen Sie Fast für Finale auf – Nur wenn Qualität entscheidet
  4. Bündeln Sie ähnliche Prompts – Effizienter als Einzelanfragen
  5. Planen Sie vor dem Generieren – Erst denken, dann generieren

Nutzung abschätzen

Aktion Ca. GPU-Minuten
4 Bilder (Standard) ~1 Min.
4 Bilder (Draft) ~0,5 Min.
Upscale ~0,5 Min.
Video (4x 5 Sek.) ~8 Min.

Fehlerbehebung

Häufige Probleme

Problem Ursache Lösung
Unscharfe Gesichter Niedriges –s oder Stilkonflikt Verwenden Sie --style raw, erhöhen Sie die Detailbeschreibung
Falsches Seitenverhältnis Standard 1:1 Geben Sie --ar explizit an
Zu künstlerisch Hohes –s Senken Sie auf 50–100
Zu wörtlich Niedriges –s Erhöhen Sie auf 200+
Inkonsistente Ergebnisse Niedriges Chaos Verwenden Sie --seed für Konsistenz
Stil überwältigend Hohes –sw Reduzieren Sie die --sw-Gewichtung
Text wird nicht gerendert V7-Einschränkung Halten Sie Text kurz, verwenden Sie Anführungszeichen
Hände sehen falsch aus KI-Einschränkung Zuschneiden oder neu generieren
Räume nicht gefunden Funktion entfernt am 26. Februar 202616 Verwenden Sie stattdessen Ordner und die Organize-Seite

Parameterkonflikte

Vermeiden Sie die Kombination von: - --style raw + hohes --s (widersprüchlich) - --v 7 + --niji (wählen Sie eines) - Mehrere starke Referenzen bei 100 % Gewichtung - --exp 50+ + --stylize (exp überlagert) - --exp 50+ + --p (exp überschreibt)

Funktioniert gut: - --oref + --sref bei moderater Gewichtung - --chaos + --seed (variiert, aber reproduzierbar) - --style raw + niedriges --s (maximaler Fotorealismus) - --exp 10-25 + --s 100-200 (verbessert, kontrolliert)

Wenn nichts funktioniert

  1. Vereinfachen – Entfernen Sie Parameter, kürzen Sie den Prompt
  2. Aufteilen – Probieren Sie Motiv und Stil separat
  3. Seed-Suche – Generieren Sie viele, finden Sie einen guten Seed, iterieren Sie
  4. Referenz – Verwenden Sie --sref mit einem Bild, das Ihr Ziel zeigt
  5. Version – Probieren Sie eine andere Modellversion

Versionsmigration

Migration von V6 zu V7

Alter V6-Stil:

portrait, beautiful woman, dramatic lighting, 8k, detailed, masterpiece

Neuer V7-Stil:

A contemplative portrait of a woman in her 30s, Rembrandt lighting
casting gentle shadows across her face, medium format photography
aesthetic with shallow depth of field

Wichtige Änderungen

Aspekt V6 V7
Prompt-Stil Schlüsselwörter Natürliche Sprache
Qualitätsbegriffe Hilfreich Weitgehend ignoriert
Character ref --cref --oref
Personalization Optional Standard
Standardverhalten Stilisiert Wörtlicher

Was Sie nicht mehr tun sollten

  • Schlüsselwort-Spam („beautiful, stunning, amazing”)
  • Qualitätsmodifikatoren („8k, ultra detailed, masterpiece”)
  • --cref verwenden (jetzt heißt es --oref)
  • Kurze, kommagetrennte Prompts

Was Sie ab jetzt tun sollten

  • Vollständige Sätze schreiben
  • Beschreiben, was Sie sehen – nicht, was Sie wollen
  • Beleuchtung, Materialien und Stimmung gezielt benennen
  • Kamera- und Objektivterminologie verwenden
  • Personalization nutzen (--p)

Parameter-Kurzübersicht

MODELS
--v 8           V8 Alpha (~5x faster, native 2K, best text) (Mar 2026)
--v 7           Default, best overall (June 2025)
--niji 7        Anime/manga (Jan 2026, best coherence)
--niji 6        Anime/manga (legacy, has --style options)
--draft         Fast iteration, 10x faster, half cost

V8-SPECIFIC
--hd            Native 2K resolution (4x cost)
--q 4           Extra coherence mode (4x cost)

ASPECT
--ar 16:9       Widescreen
--ar 21:9       Cinematic ultrawide
--ar 4:5        Portrait (Instagram)
--ar 6:11       Tall portrait (phone wallpapers)
--ar 9:16       Vertical (Stories)
--ar 1:1        Square
--ar 3:2        Classic photo
--ar 2:3        Portrait print

STYLE
--s 0-100       Photorealistic
--s 100-300     Balanced
--s 300-1000    Artistic
--style raw     Minimal AI interpretation
--p             Apply personalization (V7 default)

EXPERIMENTAL
--exp 0-100     Enhanced detail (10-25 sweet spot)
--chaos 0-100   Output variety
--weird 0-3000  Unconventional aesthetics

REFERENCES
--oref [url]    Subject/character (V7)
--ow 0-1000     Omni weight (default 100)
--sref [url]    Style transfer
--sw 0-1000     Style weight (default 100)
--iw 0-2        Image weight (default 1)

VIDEO (Web only)
--motion low    Subtle movement (default)
--motion high   Dynamic movement
--raw           More prompt control

QUALITY (V7 values: 1, 2, 4  different from V6)
--q 1           Standard quality (default)
--q 2           Higher detail, 2x cost
--q 4           Maximum detail, 4x cost
--seed [num]    Reproducibility

NEGATIVE
--no [items]    Exclude elements

Änderungsprotokoll

Datum Änderung Quelle
17.03.2026 V8 Alpha gestartet auf alpha.midjourney.com. ~5× schnellere Generierung, natives 2K über --hd, zusätzliche Kohärenz über --q 4, drastisch verbessertes Text-Rendering und Anweisungsbefolgung. --chaos, --weird, --exp, --raw, --stylize werden unterstützt. --hd/--q 4/sref/Moodboard-Jobs kosten 4×. Relax mode nicht verfügbar. Volle Abwärtskompatibilität mit V7-Profiles/Moodboards/Srefs. Neue Oberfläche: Konversationsmodus, Grid Mode, Seitenleisten-Einstellungen. 21
13.03.2026 V8-Endbewertungsrunde hinzugefügt (20. Feb., Personalization-Kalibrierung). Hinweis ergänzt, dass Relax mode bei V8-Start nicht verfügbar ist. V7-Qualitätsparameterwerte korrigiert (1, 2, 4). --sv 6 für V6.1-sref-Codes hinzugefügt. V8 zum 13. März noch nicht veröffentlicht. 20
12.03.2026 Bestätigt: Niji 7 unterstützt Personalization und Moodboards vollständig (Update vom 26. Feb.). Beschreibung der Personalization-Oberfläche aktualisiert (Raster ersetzt 1-gegen-1-Vergleiche). Einschränkungshinweis zu Niji 7 entfernt. V8 zum 12. März noch nicht veröffentlicht. 19
07.03.2026 V8 als funktional vollständig und startbereit bestätigt (Office Hours vom 4. März). Zeitplan auf Mitte März aktualisiert. Starthinweise ergänzt (Image-Prompting/Variationen könnten abweichen). Post-V8-Roadmap hinzugefügt (Editing-Modell, V2-Videomodell mit neuem Compute-Cluster). Exakte Video-GPU-Minutenkosten und aktualisierte Plantabelle mit HD/Relax-Details aus der offiziellen Dokumentation hinzugefügt. 18
03.03.2026 V8-Zeitplan aktualisiert (Distillation-Run Ende Feb., Opt-in-Release Anfang März, ~30-tägige Pre-Alpha vor Standardaktivierung). --profile-Moodboard-Syntax und Kombination mit --sref-Codes hinzugefügt. Describe-on-Web-Funktion ergänzt. Rooms-Entfernung (26. Feb.) dokumentiert. 1617
28.02.2026 V8-Status aktualisiert (zum 28. Feb. noch ausstehend, natives 2K bestätigt, architektonische Neuentwicklung). Moodboard-/Profiles-Abschnitt erweitert (mehrere benannte Profiles, 5× schnelleres Setup, Stabilitätsstufen auf 40/200/2.000 verfeinert). 1415
17.02.2026 V8-Status: letzte Feinschliff-Phase, mehrere Rating-Partys Mitte Feb., Veröffentlichung steht unmittelbar bevor. V8-Funktionen bestätigt (Style Refs, Moodboards, Editing). Seitenverhältnis 6:11, --ow-Interaktionshinweise, Web-Plattform-Updates (Batch-Operationen, automatische Parameterbereinigung) hinzugefügt. 1213
09.02.2026 V8-Status aktualisiert (internes Testen, Rating-Party, TPU→GPU-Wechsel, neuer Erstellungsablauf), Niji 7-Details erweitert (–sref-Drift, Augenqualität, –cref-Alternative) 910
20.01.2026 HD-Video-Modus-Abschnitt hinzugefügt (4× Auflösung, ~3,2× Kosten, nur Pro/Mega) 8
17.01.2026 V8-Entwicklungsstatus, Moodboards-Abschnitt, --sv 4 für Legacy-sref-Codes hinzugefügt Web-Scan
16.01.2026 V7.1-Roadmap-Informationen hinzugefügt, Niji 7-Abdeckung verifiziert Web-Scan
13.01.2026 Guide erstellt mit V7, Niji 7, Video-Abdeckung Mehrere
09.01.2026 Niji 7 mit verbesserter Kohärenz veröffentlicht 3
19.06.2025 V1-Videomodell veröffentlicht 4
17.06.2025 V7 wurde Standardmodell 2
30.04.2025 V7-Update: –exp-Parameter, Editor-Verbesserungen 5
03.04.2025 V7 veröffentlicht 2

Quellenverzeichnis


  1. Midjourney Updates. Offizielles Änderungsprotokoll und Ankündigungen. 

  2. Midjourney Version Documentation. „Version 7 was released on April 3, 2025, and became the default model on June 17, 2025.” 

  3. Niji V7 Announcement. „Niji V7 is now live” – 9. Januar 2026. 

  4. V1 Video Model. Videogenerierung veröffentlicht am 19. Juni 2025. 

  5. V7 Update, Editor, and –exp. Update-Details vom 30. April 2025. 

  6. V8 Development Discussion. Community-Diskussion über V8-Training und Roadmap-Details aus David Holz’ Q&A. 

  7. Moodboards Feature. Midjourney Personalization über Moodboards und Bildbewertung. 

  8. HD Video Mode. „HD Video mode delivers 4x sharper AI-generated clips… costs roughly 3.2 times more than SD.” August 2025. 

  9. Office Hours Jan 22. V8 in der Feinabstimmung, 3D-Funktionalität, Mobile-App-Pläne, Batch-Modus-Erweiterung. 

  10. Office Hours Feb 12. Rating-Party signalisiert V8-Release, Hardware-Projekte, Echtzeit-3D-Forschung. 

  11. V8 Development Overview. TPU-zu-GPU/PyTorch-Wechsel, V8-Mini-Variante, Style Creator, neuer Datensatz. 

  12. V8 Rating Party Updates. Mehrere Rating-Partys in der Woche ab 16. Feb., V8-Release kurz danach erwartet. Bestätigte Funktionen: Style Refs, Moodboards, Personalization, Weird, Style Creator, Upscaling, Editing. 

  13. Web Updates Jan 20, 2026. Seitenverhältnisse 6:11, 4:5, 5:4, 21:9 hinzugefügt, Batch-Operationen für 2.000 Elemente, automatische Bereinigung irrelevanter Parameter. 

  14. V8 Release Status. „Midjourney V8 could drop next week” – native 2K-Auflösung, vollständige Architektur-Neuentwicklung, drastisch verbessertes Text-Rendering. Ende Februar 2026. 

  15. Profiles and Moodboards. Mehrere benannte Profiles, 5× schnelleres Setup, mehrere aktive Profiles auswählbar, 40 Bewertungen zum Start, stabil ab 200, verbessert sich bis 2.000. 

  16. V8 Distillation and Release Timeline. Finaler Distillation-Run begann Ende Februar, ~1 Woche Dauer, danach Opt-in-Release mit ~30-tägiger Pre-Alpha vor Standardaktivierung. Rooms-Funktion am 26. Februar 2026 entfernt. 

  17. Describe on Web + Moodboard Blending. Rechtsklick-Describe generiert 4 Text-Prompts aus beliebigen Bildern. Moodboard-Kombination mit --sref-Codes und --profile-Parameter zur direkten Moodboard-ID-Verwendung. 

  18. V8 Functionally Complete — March 4 Office Hours. David Holz bestätigte, V8 sei „functionally complete and launch-ready”. Distillation steht unmittelbar bevor. Geschwindigkeitsgewinne auch für Turbo-Nutzer erheblich. Image-Prompting/Variationen könnten beim initialen Rollout abweichen. Post-V8-Roadmap: zuerst Editing-Modell, dann V2-Videomodell (neuer Compute-Cluster im März ermöglicht größere Videomodelle). Außerdem: Geeky Gadgets V8 overview

  19. Personalization and Web Updates. 26. Februar 2026. Neue Personalization-Oberfläche ersetzt 1-gegen-1-Bildvergleiche durch schnelleres Klick-und-Scroll-Raster. Personalization und Moodboards für Niji 7 hinzugefügt. Rooms-Funktion eingestellt. 

  20. V8 Rating Party - FINAL ROUND. 20. Februar 2026. Letzte Runde kalibriert Personalization-Systeme speziell für V8. V8-Start rückt näher. Außerdem: V8 Release Analysis – Relax mode wird bei V8-Start nicht verfügbar sein; Basic-/Standard-Nutzer während des initialen Rollouts auf Fast/Turbo beschränkt. 

  21. V8 Alpha Announcement. 17. März 2026. V8 Alpha verfügbar auf alpha.midjourney.com. ~5× schnellere Generierung, natives 2K über --hd, zusätzliche Kohärenz über --q 4, verbessertes Text-Rendering (Anführungszeichen verwenden), --stylize bis 1000 empfohlen. --hd/--q 4/sref/Moodboard-Jobs kosten 4×. Relax mode nicht verfügbar. Volle V7-Abwärtskompatibilität. Neue Oberfläche: Konversationsmodus, Grid Mode, Seitenleisten-Einstellungen.