Loading

Kling 3.0 Motion Control — Referenzgesteuerte KI-Charakteranimation

Jeden Charakter mit jeder Bewegung verbinden — aus einem einzigen Bild und einem Referenzclip

Kling 3.0 Motion Control von Kuaishou verwandelt ein statisches Charakterbild in ein vollständig animiertes Video, indem Bewegungen aus einem von dir bereitgestellten Referenzclip extrahiert werden. Lade ein JPEG oder PNG deines Charakters und ein 3–30 Sekunden langes Referenzvideo hoch, und Kling überträgt die vollständige Körpertrajektorie, Handgesten, faziale Mikroausdrücke und Kamerabewegungen auf dein Motiv — wobei Gesicht, Outfit und Identität des Charakters durchgehend erhalten bleiben. Die Ausgabe erfolgt in 720p oder 1080p und entspricht der genauen Dauer des Referenzvideos. Verwende Character Orientation, um festzulegen, ob das Ergebnis der Pose des Bildes folgt (max. 10 Sekunden) oder der Ausrichtung des Videos (max. 30 Sekunden). Füge optional ein Referenzelement hinzu, um ein benutzerdefiniertes Motiv über den gesamten Clip hinweg zu fixieren. Basierend auf der Omni One Physik-Engine liefert Motion Control natürliche Balance, Kontaktdynamik und Identitätserhaltung, die andere Animationsmodelle nicht bieten können.

Kling 3.0 Motion Control, von Kuaishou zusammen mit dem Kling 3.0 Basismodell veröffentlicht, ist eine dedizierte referenzgesteuerte Animationspipeline — die sich von den Standard-Text-zu-Video- und Bild-zu-Video-Modi unterscheidet. Anstatt Bewegungen in einem Prompt zu beschreiben, bringst du deine eigene Bewegung in Form eines 3–30 Sekunden langen Referenzclips mit. Das Modell extrahiert die vollständige Bewegungstrajektorie — Körperkinematik, Handartikulation, faziale Dynamik und Kamerabewegung — und überträgt sie auf den Charakter in deinem Referenzbild.

Was es auszeichnet, ist die Wiedergabetreue bei den schwierigen Teilen der menschlichen Animation. Handgesten, traditionell ein Schwachpunkt für KI-Video, werden mit Fingergenauigkeit dargestellt. Faziale Mikroausdrücke werden sauber übertragen, mit einer 360-Grad-Identitätserhaltung, die auch Winkeländerungen übersteht. Die Omni One Physik-Engine handhabt Balance, Gewichtsverlagerung, Stoffdynamik und Kontakt zwischen Körperteilen und Boden — sodass dein Charakter bei komplexer Choreografie nicht gleitet oder schwebt. Wenn Teile des Körpers im Referenzvideo verdeckt sind, stellt das Modell sie wieder her, anstatt Artefakte zu produzieren.

Zwei Ausrichtungsmodi geben dir Kontrolle darüber, wie die Quellmaterialien interagieren. Character Orientation = image lässt den Charakter so ausgerichtet bleiben, wie er es in deinem Referenzbild tut, und unterstützt bis zu 10 Sekunden — ideal, wenn das Standbild bereits die gewünschte Pose zeigt. Character Orientation = video folgt der Rahmung und Ausrichtung des Referenzvideos und unterstützt den vollen 30-Sekunden-Bereich — ideal für vollständige Körperchoreografie, Sport oder Bewegungen mit Drehungen. Die Ausgabeauflösung beträgt 720p (Standard) oder 1080p (Pro). Der Ton des Referenzvideos kann beibehalten (Standard) oder mit einem Klick stummgeschaltet werden. Für langfristige Charakterkonsistenz über mehrere Motion Control-Durchläufe hinweg kannst du eine zuvor erstellte element_id angeben, um das Motiv zu fixieren. Motion Control ergänzt Kling 3.0s standardmäßige kinematische Pipeline (Multi-Shot, 4K, nativer Ton): Verwende das Basismodell für originale kreative Gestaltung und Motion Control, wenn du spezifische Referenzbewegungen auf einen bestimmten Charakter übertragen möchtest.

So verwendest du Kling 3.0 Motion Control

01

Lade dein Charakterbild hoch

Wähle ein JPEG oder PNG des Charakters, den du animieren möchtest — Ganzkörper und Kopf klar sichtbar, unverdeckt. Seitenverhältnis zwischen 1:2.5 und 2.5:1, mit jeder Seite mindestens 300px und einer Gesamtgröße unter 10MB.

02

Lade ein Referenz-Bewegungsvideo hoch

Füge einen 3–30 Sekunden langen Clip der Bewegung hinzu, die du übertragen möchtest. Die erkannte Dauer und die aktuellen Credit-Kosten werden sofort angezeigt. Wähle 720p oder 1080p und Character Orientation = image (≤10s, Bildpose beibehalten) oder video (≤30s, Videorahmung folgen).

03

Generiere und lade herunter

Füge optional einen Prompt hinzu, um Hintergrund oder Stil zu steuern, schalte Ton beibehalten um und füge unter Erweiterte Einstellungen eine Element-ID hinzu, falls vorhanden. Klicke auf Generieren — Kling schließt den Vorgang typischerweise in 3–6 Minuten ab. Ergebnisvideo-URLs sind 24 Stunden gültig; lade sie zeitnah herunter.

Kling 3.0 Motion Control Technische Spezifikationen

AnbieterKuaishou (Kling AI)
Veröffentlichung2026 (mit Kling 3.0)
Eingaben1 Referenzbild (.jpg, .jpeg, .png) + 1 Referenzvideo
Referenzbildgröße≤ 10MB; ≥ 300px pro Seite; Seitenverhältnis 1:2.5 bis 2.5:1
Referenzvideodauer3 bis 30 Sekunden
AusgabedauerEntspricht der Länge des Referenzvideos (3–30s)
Ausgabeauflösung720p (Standard) oder 1080p (Pro)
CharakterausrichtungBild (≤10s) oder Video (≤30s)
TonReferenzton beibehalten (Standard) oder stummschalten
MotivelementBis zu 1 (nur video_refer Elemente)
Physik-EngineOmni One — Balance, Kontakt, Stoffdynamik
Identitätserhaltung360° Gesicht & Körper, Verdeckungswiederherstellung
PromptOptional, max. 2500 Zeichen
VerarbeitungAsynchron; Ergebnis-URL 24 Stunden gültig

Warum Kling 3.0 Motion Control heraussticht

Referenzgesteuerte Bewegung schlägt promptgesteuerte Bewegung

Bewegungen in einem Prompt zu beschreiben ist fehleranfällig: 'eine elegante Pirouette' liefert jedes Mal ein anderes Ergebnis. Motion Control ermöglicht es dir, die genaue Bewegung bereitzustellen, die du willst — aus einem Handyclip, einem Tanzvideo, einem Sporthighlight — und sie auf deinen Charakter zu übertragen. Du erhältst die Präzision einer echten Performance, ohne mit dem eigentlichen Motiv zu filmen.

Gebaut für die schwierigen Teile: Hände, Gesichter, Physik

V3.0 hat speziell die Schwachstellen verbessert, die die KI-Charakteranimation geplagt haben: Handartikulation, faziale Mikroausdrücke und physischer Kontakt. Angetrieben von der Omni One Physik-Engine verarbeitet es Balance, Gewichtsverlagerung und Verdeckungswiederherstellung — sodass Tanz, Kampfkünste und komplexe Choreografie natürlich gerendert werden, statt als schwebende, gleitende Artefakte.

Bis zu 30 Sekunden in 1080p mit Identitätserhaltung

Die meisten Animationsmodelle sind auf 5–10 Sekunden begrenzt. Motion Control läuft bis zu 30 Sekunden, angepasst an dein Referenzvideo, mit 360° Gesichts- und Körperidentitätserhaltung über Winkeländerungen hinweg. Kombiniert mit dem optionalen Motivement zur Fixierung des Aussehens über Generierungen hinweg ist es die produktionsfertigste Charakteranimationspipeline, die derzeit verfügbar ist.

Kling 3.0 Motion Control vs. andere Animationsmodelle

FeatureKling 3.0 Motion ControlKling 3.0 (Bild-zu-Video)Runway Act-OneWan Animate
EingabeBild + ReferenzvideoBild + PromptBild + Treibervideo (Gesicht)Bild + Treibervideo
BewegungsquelleGanzkörper, Hände, Gesicht, KameraTextpromptNur GesichtsperformanceKörper + Gesicht
Maximale Dauer30s15stypisch 10stypisch 5–10s
Maximale Auflösung1080p4K720p720p
HandgestentreueHoch (V3-Upgrade)PromptabhängigN/AMittel
Identitätserhaltung360°, VerdeckungswiederherstellungReferenz + ElementeGesichtsverankertReferenzverankert
PhysikOmni One EnginePhysikbewusste BewegungBegrenztBegrenzt
Ideal fürTanz, Sport, vollständige PerformanceKinematische ErzählungSprechkopf-ActingLeichte Charakteranimation

Was Kreative mit Kling 3.0 Motion Control erstellen

01

Tanz- und Choreografievideos

Nimm eine Tanzroutine mit deinem Handy auf, lade sie als Referenzvideo hoch und übertrage sie auf einen beliebigen Charakter — deinen Avatar, einen illustrierten Charakter, ein Promi-Ebenbild oder ein stilisiertes Maskottchen. Handgesten und Schrittarbeit werden dank des V3-Upgrades sauber übertragen.

02

Sport- und Actionsequenzen

Verwende ein Sporthighlight oder einen Parkour-Clip als Referenz und wende die Bewegung auf ein Markenmaskottchen oder einen fiktiven Charakter an. Die Omni One Engine verarbeitet schnelle Richtungswechsel, Kontakt und Ganzkörperdrehungen, die bei promptbasiertem Text-zu-Video normalerweise zerfallen würden.

03

Markenmaskottchen-Animation

Bringe eine statische Markenillustration mit Bewegungen eines echten Performers zum Leben. Mit dem Motivement kannst du das Aussehen des Maskottchens über eine gesamte Kampagne hinweg fixieren — gleiche Proportionen, gleiche Details, verschiedene Bewegungsclips für verschiedene Werbeanzeigen.

04

Musikvideo-Performance-Einsätze

Referenziere die Choreografie eines Künstlers und wende sie auf eine stilisierte Version des Künstlers oder auf mehrere Charaktere über Schnitte hinweg an. Der native Ton-Durchgang bedeutet, dass die Referenzmusik oder der Gesangssync im Ergebnis eingebettet bleibt, ohne Nachbearbeitung.

05

Kurzform-Social-Trends

Erstelle einen Trend-Tanz, eine Aktion oder einen Ausdruck mit deinem eigenen Charakterbild nach. Bis zu 30 Sekunden deckt nahezu jede Kurzform-Vorlage ab (TikTok, Reels, Shorts), und 720p ist mehr als ausreichend für vertikale Mobile-Feeds.

06

Vorvisualisierung für Performance-Capture

Verwende Smartphone-Referenzaufnahmen eines Schauspielers oder Stuntdoubles, um voraus zu visualisieren, wie sich ein finaler Charakter bewegen wird — lange vor der mocap-Studiozeit. Identitätserhaltung über 30 Sekunden gibt Regisseuren etwas Konkretes, um es mit VFX-, Choreografie- und Performance-Teams zu besprechen.

Verwandte KI-Videomodelle entdecken

Häufig gestellte Fragen zu Kling 3.0 Motion Control

Was macht Kling 3.0 Motion Control eigentlich?

Es animiert ein statisches Charakterbild mithilfe von Bewegungen aus einem von dir bereitgestellten Referenzvideo. Anstatt Bewegungen in einem Prompt zu beschreiben, lädst du einen 3–30 Sekunden langen Clip von jemandem (oder etwas) hoch, der sich so bewegt, wie du es möchtest — tanzen, gehen, gestikulieren, auftreten — und Kling überträgt diese vollständige Körpertrajektorie, Handgesten, faziale Mikroausdrücke und Kamerabewegungen auf den Charakter in deinem Bild. Die Ausgabe behält Gesicht, Outfit und Identität deines Charakters bei, während sie die Bewegung des Referenzclips übernimmt.

Was ist der Unterschied zwischen Character Orientation = image und = video?

Bildausrichtung lässt den Charakter so ausgerichtet bleiben, wie er es in deinem Referenzbild tut (das Standbild bestimmt die Pose), und ist auf 10 Sekunden begrenzt — ideal, wenn das Bild bereits den gewünschten Look zeigt. Videoausrichtung folgt der Rahmung und Ausrichtung des Referenzvideos und unterstützt den vollen 30-Sekunden-Bereich — ideal für vollständige Körperchoreografie, Sport oder Bewegungen mit Drehungen. Wenn du ein Motivelement (element_list) verwendest, wird nur die Videoausrichtung unterstützt.

Welche Art von Referenzvideo eignet sich am besten?

Ein sauberer 3–30 Sekunden langer Clip mit sichtbarem Ganzkörper, gleichmäßiger Bewegung und einem klaren Motiv eignet sich am besten. Die Körperproportionen des Referenzcharakters sollten ungefähr mit denen deines Bildcharakters übereinstimmen. Vermeide extreme Kameraverwacklung, mehrere Motive oder chaotische Bewegungen. Die Omni One Physik-Engine verarbeitet komplexe Bewegungen (Tanz, Kampfkünste, Sport) sauber, und das Modell kann Körperteile wiederherstellen, die im Referenzvideo vorübergehend verdeckt sind.

Wie werden Ausgabedauer und Preis bestimmt?

Die Ausgabedauer entspricht der Dauer des Referenzvideos (auf ganze Sekunden gerundet). Die Preisgestaltung richtet sich nach Qualität und Dauer: 1080p × 30s ≈ 50 Credits, 1080p × 10s ≈ 20 Credits, wobei kürzere Dauern günstiger sind bis zu einem Mindestpreis von 10 Credits. 720p kostet etwa 75% von 1080p bei gleicher Dauer. Der Generieren-Button zeigt den aktuellen Preis für deinen spezifischen Upload an.

Muss ich einen Prompt schreiben?

Der Prompt ist optional. Du kannst ihn leer lassen, und das Modell leitet die Szene aus deinem Referenzbild und Referenzvideo ab. Das Hinzufügen eines Prompts ist nützlich, wenn du Hintergrund, Beleuchtung oder Stil beeinflussen möchtest — zum Beispiel: 'kinematische Beleuchtung, verschwommener urbaner Hintergrund, goldene Stunde'. Die Bewegung des Charakters kommt in jedem Fall aus dem Referenzvideo.

Kann ich denselben Charakter über mehrere Generierungen hinweg verwenden?

Ja. Das Feld Motivement unter Erweiterte Einstellungen ermöglicht es dir, eine element_id anzugeben, die du zuvor erstellt hast (über Kling Custom Element mit video_refer). Wenn festgelegt, sperrt das Modell die Identität dieses Charakters über Generierungen hinweg, selbst wenn sich das Referenzbild ändert. Hinweis: Das Motivement erfordert Character Orientation = video, und pro Motion Control-Generierung wird nur ein Element unterstützt.