Higgsfield Film Guide
Zum Workflow ↓
Anfänger-Leitfaden · Stand Mai 2026

Wie generierst du
einen Film mit Higgsfield?

Schritt für Schritt — basierend auf dem Workflow eines AI-Filmemachers, der gerade einen 80-Minuten-Spielfilm für Cannes generiert. Keine Theorie. Nur das, was er in seiner Folge wirklich tut.

10 Mio.
Credits Start-Budget für 80 Minuten Film
~800
Generierte Assets in einer Episode
8
… davon haben es in den Final Cut geschafft
1 / 64
Trefferquote bei Video-Generationen

Quelle: Adil — „I Spent $6,139 on Higgsfield in 1 sitting · Ep. 2" · Inhalte 1:1 aus dem Video extrahiert.

// 01 · Worum es geht

Higgsfield ist eine Plattform für AI-Bilder und AI-Videos — alles in einem Tool.

Im Video produziert ein 15-köpfiges Team einen Spielfilm namens Hellgrind komplett mit Higgsfield: Locations, Charaktere, Props, Shots, Schnittlogik. Du bekommst Zugriff auf mehrere Bild- und Video-Modelle, ein Collab-Feature für Team-Projekte (geteilte Folder, Kommentare, sogar Video-Calls) und kannst Assets direkt aus generierten Bildern wiederverwenden.

„Ich werde sehr oft scheitern. Aber ich zeige dir die exakten Frameworks, mit denen ich aus diesen Failures cinematic Shots mache." — Adil, im Video
// 02 · Bevor du startest

Was du vor dem ersten Klick brauchst.

Higgsfield zu öffnen reicht nicht. Adil hat all das vorbereitet, bevor er Tag 4 angefangen hat:

📜 Ein Drehbuch / Script
Pro Episode arbeitet er mit 2–3 Szenen. Ohne Script keine sinnvolle Shot List.
🧱 Asset-Canvas
Charaktere, Locations und Props an einem Ort — wiederverwendbar als Reference-Bilder.
🎨 Style Prefix
Ein Prompt-Baustein für Lighting, Color, Audio. Im Team garantiert er, dass alle dasselbe „Aussehen" generieren.
🤖 Shot-List-Skill in Claude
Adil benutzt einen eigenen Custom Skill in Claude, der Szenen in 15-Sekunden-Shots zerlegt und Prompts schreibt.
💸 Genug Credits
Ein einziger 10-Sekunden-Shot kostete im Video 72 Generationen. Plane großzügig.
🎵 Editor + Musik
Adil schneidet parallel zum Generieren. Eine Musikspur im Mood der Szene hilft, früh zu spüren, ob ein Shot funktioniert.
// 03 · Der Workflow

Schritt für Schritt: So entsteht ein Shot.

Diese Reihenfolge folgt 1:1 dem, was Adil in der Episode tut — von der leeren Seite bis zum geschnittenen Take.

01

Script & Shot List vorbereiten

Nimm das Skript der Szenen, die du heute generierst. Adil lädt sein Drehbuch in Claude und ruft dort einen Custom Skill auf, der die Szene in 15-Sekunden-Shots zerlegt und passende Video-Prompts schreibt — inklusive Style Prefix (Natural Light, kein Soundtrack, environmental sound only).

Tools: Claude (mit Custom Skill), dein Style-Prefix-Dokument

02

Assets identifizieren

Der Skill listet, was du brauchst: Character Sheets, Location Sheets, Props (im Video: Polaroid, Sticky Note, Photo Wall). Was du schon hast, ziehst du aus dem Asset-Canvas. Was fehlt, generierst du jetzt.

Tools: Claude · Asset Canvas

03

Location generieren (das wichtigste Bild)

Schreib in Claude einen detaillierten Bild-Prompt: Räumlichkeit, Layout, Lighting, Style Prefix. In Higgsfield generierst du dann mit Nano Banana Pro in Batches à 4 (Format 21:9). Adil brauchte 44 Iterationen, bis das Layout saß. Tipp: Lade kein Außen-Foto als Reference hoch — Nano Banana Pro hat Schwächen bei Spatial Awareness und mischt dir sonst Innen und Außen.

Tools: Higgsfield Collab · Nano Banana Pro

04

Eine zweite Ansicht der Location

Damit das Video-Modell später räumlich versteht, was wo ist, generierst du eine zweite Perspektive (z. B. Blick aus dem Flur in den Raum). Beide Views kombinierst du zu einem 16:9-Reference-Sheet — oben Front, unten Hallway. Das wird dein Master-Reference für alle Video-Shots.

Tools: Nano Banana Pro · einfache Bildbearbeitung

05

Props generieren

Polaroid mit Charakteren? Charaktere als Reference reinziehen, Prompt drauf, fertig. Sticky Note? Simpler Close-up-Prompt. Photo Wall mit 12 Bildern? Niemals als ein Bild generieren — Faces driften. Lieber: jedes Polaroid einzeln, dann in Photoshop zusammenstitchen.

Tools: Nano Banana Pro · Photoshop

06

Shot List in Claude finalisieren

Mit allen Assets gehst du zurück zu Claude, lädst sie hoch, und der Skill baut die finale Shot List: links Beschreibung, rechts Prompt. Wichtig: Failure Modes direkt im Prompt mitschreiben — also Warnungen wie „do not drift the Polaroid". Adil schreibt seine Prompts in Chinesisch, weil Seedance ein 3.000-Zeichen-Limit hat und Chinesisch dichter packt.

Tools: Claude · Custom Skill

07

Videos generieren mit Seedance 2.0

In Higgsfield: Prompt einfügen, Reference-Bilder taggen (Reihenfolge zählt — Charakter zuerst, dann Location, dann Props). Adil generiert in Batches à 8 und scannt nur die Komposition. Voll anschauen tut er nur die Shots, die optisch direkt überzeugen. Seitenverhältnis: 21:9 für Cannes-Leinwand.

Tools: Higgsfield · Seedance 2.0

08

Re-Prompten, wenn alle 8 failen

Wenn der ganze Batch nicht funktioniert: zurück zu Claude, Prompt anpassen. Meist hilft: Kameraposition explizit beschreiben, einen Spatial Layout Block einfügen, oder Actions durch Emotionen ersetzen („he is heartbroken" funktioniert besser als minutiöse Bewegungsabfolgen). Niemals den gleichen Prompt zigfach editieren — wenn er zu lang wird, neu schreiben.

Faustregel: Komposition fast richtig → mehr Batches · Alle 8 falsch → Prompt ändern

09

Edit-as-you-go

Jeden geglückten Shot sofort in die Timeline ziehen — mit der Musikspur, die zur Stimmung passt. So merkst du innerhalb von Sekunden, ob Cuts funktionieren, ob ein L-Cut sinnvoll ist (Audio einer Szene läuft in die nächste über), und welche Shots noch fehlen. Editier-First spart dir später Stunden.

Tools: dein bevorzugter Video-Editor

10

Director Approval

Im Team: Am Ende des Tages müssen die Szenen vom Direktor abgesegnet werden — sonst landen sie nicht im Film. Solo: Geh schlafen, schau dir das Material am nächsten Morgen mit frischen Augen nochmal an. Was du nachts um zwei für „cinematic" hältst, ist morgens manchmal slop.

// 04 · Frameworks

Pro-Tipps direkt aus dem Video.

Das sind die konkreten Regeln, die Adil nennt, wenn er erklärt, wie aus Failure-Generationen verwertbare Shots werden.

Die Location ist das Fundament

Lighting und Style des Videos kommen aus diesem einen Bild. Wenn die Location plastikartig wirkt, wird das Video plastikartig.

„Add light atmospheric haze"

Dieser Zusatz im Prompt-Ende kämpft gegen den künstlichen Look von Nano Banana Pro. Plus optional: Film Grain, „crush the blacks".

Reference-Reihenfolge zählt

Bilder müssen in der gleichen Reihenfolge ans Modell gegeben werden, in der sie im Prompt erwähnt sind. Sonst greift Seedance das falsche.

Spatial Layout Block einbauen

Eigener Prompt-Abschnitt, der Wand-Anordnung, Kameraposition, Hallway-Richtung explizit beschreibt. Hilft Seedance bei räumlicher Orientierung.

Emotionen statt Actions

„He is very upset and heartbroken" liefert oft bessere Performances als minutiöse Bewegungsbeschreibungen. Pacing folgt dann automatisch.

Kein Continuous Shot mit Sekunden-Subshots

Wenn du einen Take in „0–3 Sek: X, 3–6 Sek: Y" zerlegst, macht Seedance harte Cuts mitten im Shot. Stattdessen: „one continuous motion".

Tags / Prompt Handles benutzen

@Roco, @Photo_Wall — eindeutige Tags im Prompt verlinken zur richtigen Reference.

Wenn der Prompt zu lang wird → neu schreiben

Mehrfach editierte Prompts überfordern das Modell. Lieber bei null anfangen.

Bilder müssen makellos sein, bevor sie ins Video gehen

„Wenn deine Bilder slop aussehen oder das Lighting nicht passt, nimmt Seedance diese Imperfektionen und verstärkt sie im Video."

Style Prefix für Konsistenz

Lighting-Rules und Audio-Rules („no music, environmental SFX only") als wiederverwendbarer Prompt-Block — vor allem im Team Pflicht.

L-Cut als Schnitt-Trick

Audio einer Szene (z. B. zufallende Tür) in den nächsten Shot hineinziehen. Ergibt einen filmischen Übergang, der Distanz auflöst.

Eine Kamerabewegung pro Shot

Wenn Push-In, Pan und Tracking gleichzeitig laufen, überfordert das emotional. Cinema = eine klare, intentionale Bewegung.

// 05 · Auge schulen

Slop oder Cinema? So unterscheidest du es.

„Klingt offensichtlich, ist es aber nicht — ich hab's auf die harte Tour gelernt." Diese Kriterien nennt Adil im Video.

Slop

Daran erkennst du AI-Müll.

  • Plastikartige Texturen auf Wänden und Möbeln
  • Inkonsistente Räume — „15 Türen in einem Zimmer"
  • Möbel, die zwischen zwei Shots ihren Platz wechseln
  • Face Drift — Charaktere verlieren ihr Gesicht im selben Bild
  • FPS-Drops auf 12 fps statt 24 → wirkt verzögert, unangenehm
  • Bewegung passt nicht zur Stimmung (Trauer-Charakter rennt)
  • Über-aktive Kamera: Push-In + Pan + Tilt gleichzeitig
Cinema

Daran erkennst du einen guten Take.

  • „Es fühlt sich an wie ein echtes Filmstill"
  • Eine klare, intentionale Kamerabewegung
  • Pacing matcht die Emotion: Trauer = schwer, langsam, „dragged forward by grief"
  • Spatial Continuity zum vorherigen Shot
  • Faces bleiben über alle Shots derselben Person konsistent
  • In der Timeline mit Musik: der Mood passt sofort
  • Lighting wirkt nicht plastisch, sondern atmosphärisch
// 06 · Aus Fehlern lernen

Die häufigsten Anfänger-Fehler — und wie Adil sie löst.

Reale Probleme aus dieser Episode, in der Reihenfolge, in der sie ihm begegnet sind.

⚠ Problem

Statt der Kamera bewegt sich der Kühlschrank — das Modell ankert die Bewegung an der falschen Stelle.

✓ Fix

Den Camera-Anchor explizit am Hallway festmachen, nicht an Props. Im Prompt sagen, wovon weg sich die Kamera bewegt.

⚠ Problem

Falscher Hallway oder falsche Wand — Seedance interpretiert die Spatial Layout falsch.

✓ Fix

„The hallway is in the top-right corner of the top panel of the reference sheet." Räume klar mit Position im Reference-Bild verbinden.

⚠ Problem

Charakter geht zu schnell für die Szene.

✓ Fix

Emotion explizit beschreiben statt Geschwindigkeit. „Slower than tired, slower than exhausted — being dragged forward by grief."

⚠ Problem

Seedance macht harte Cuts mitten im Take.

✓ Fix

Sekunden-genaue Subshot-Beschreibungen entfernen. Stattdessen „one continuous motion".

⚠ Problem

FPS-Drop: Seedance liefert 12 fps statt 24 — wirkt ruckelig.

✓ Fix

Im Prompt explizit „must be 24 fps" einfügen. Notfall-Hack: Doppelte Frames im Editor manuell rausschneiden — kostet aber den Audio-Track.

⚠ Problem

Photo Wall mit 12 Polaroids: alle Faces brechen.

✓ Fix

Niemals als ein Bild generieren. Jedes Polaroid einzeln in Higgsfield, dann in Photoshop zur Wand zusammensetzen.

⚠ Problem

NSFW-Filter blockt einen harmlosen Prompt.

✓ Fix

Ein einzelnes Wort kann den Filter triggern. Prompt umformulieren — nicht den Content ändern.

⚠ Problem

Locations wirken plastisch, leblos.

✓ Fix

Standard-Zusatz im Prompt: „Add light atmospheric haze, film grain, crush the blacks."

⚠ Problem

Skript wird unterwegs geändert — gerade gemachte Footage ist unbrauchbar.

✓ Fix

Akzeptieren. Adil verlor an Tag 2 ca. 100.000 Credits / 2,5 Min Footage. Geht zurück zur Shot List, neu generieren.

// 07 · Realität in Zahlen

Was ein cineastischer AI-Film wirklich kostet.

Die ehrlichen Daten aus 4 Tagen Produktion — damit du planen kannst, bevor du anfängst.

10 Mio.
Start-Credits

Adils Einschätzung am Ende der Episode: „Könnten zu wenig sein."

~$260k
verbrannt in 4 Tagen

15-Personen-Team, ~4,4 Mio. Credits.

72
Generationen pro 10s-Shot

Shot 21A — bis er saß.

1 / 64
brauchbarer Video-Output

„Eine von 100 schafft es in den finalen Cut."

$15–20M
… kostet ein vergleichbarer Live-Action-VFX-Film

Schätzung des Emmy-VFX-Artists im Team.

$0
für gefailte Generations

„Don't worry — you don't get charged for failures."

// 08 · Wann ist ein Shot fertig?

Die Qualitäts-Checkliste vor der Abnahme.

Was Adils Direktor prüft — und was du dich selbst fragst, bevor ein Shot in den Final Cut wandert.

Es fühlt sich an wie ein echtes Filmstill — nicht wie AI.
Die Emotion liest sich auch ohne Ton.
Kameraposition und Spatial Layout matchen den vorherigen Shot.
In der Timeline mit Musik fühlt sich der Mood stimmig an.
Genau eine, intentionale Kamerabewegung.
Pacing matcht die Emotion (Trauer = schwer, langsam).
Faces bleiben über alle Shots der gleichen Person konsistent.
Auf Großleinwand würde dir keine Inkonsistenz peinlich sein.
// 09 · Glossar

Die Begriffe aus dem Video — kurz erklärt.

Damit du beim nächsten Higgsfield-Tutorial direkt weißt, wovon die Rede ist.

Higgsfield

Plattform für AI-Bild- und Video-Generation. Mehrere Modelle, Collab-Feature, Projekt-Management — alles in einem Tool.

Seedance 2.0

Higgsfields Video-Modell. 24 fps, 1 Audio-Track. Adil generiert damit alle Shots im Video.

Nano Banana Pro

Bild-Modell in Higgsfield für Locations und Props. Stark in Detail, schwächer in Spatial Awareness.

GPT Image 2.0

Alternatives Bild-Modell — vor allem nützlich für Edits an bestehenden Bildern.

Soul Cinema

Higgsfield-Feature für schnelles Batch-Generieren ohne genaue Vorgabe — gut zum Idee-Finden.

Collab

Higgsfields Team-Feature: geteilte Folder, Permissions, Kommentare, sogar Video-Calls.

Style Prefix

Wiederverwendbarer Prompt-Baustein für Lighting, Color, Audio. Sichert Konsistenz im Team.

Shot List

Tabelle mit Szene → 15-Sek-Shots → Prompt → Failure Modes.

Failure Modes

Aktive Warnungen im Prompt („do not drift the Polaroid"), die typische Modell-Fehler präventiv adressieren.

Spatial Layout Block

Prompt-Abschnitt, der Raumgeometrie + Kameraposition explizit beschreibt.

Prompt Handles

Tags wie @Roco oder @Photo_Wall — verlinken zur richtigen Reference.

L-Cut

Schnitt-Technik: Audio einer Szene läuft über den Bildschnitt in die nächste Szene weiter.

Key Frame im Video-Kontext

Reference-Bild, das Seedance als Ausgangspunkt für die Animation nimmt.

Push-In / Pan / Tracking

Kamerabewegungen, die im Prompt einzeln benannt werden. Mische sie nicht im selben Shot.

// 10 · Weiter lernen

Du willst tiefer rein?

In meiner AI Content Creation Community zeigen wir Woche für Woche neue Workflows, Prompts und Setups — für alle, die mit AI wirklich etwas erschaffen wollen, nicht nur drüber reden.

Zur Community