ByteDance macht Ernst: Das hauseigene KI-Videomodell Dreamina Seedance 2.0 ist ab sofort direkt in die Videobearbeitungsplattform CapCut integriert — in der App, auf dem Desktop und im Browser. Der schrittweise Rollout beginnt in sieben Ländern: Indonesien, Philippinen, Thailand, Vietnam, Malaysia, Brasilien und Mexiko.
Was Seedance 2.0 von der Konkurrenz abhebt: Das Modell liefert nicht nur Video, sondern synchronisierten Ton gleich mit. Dialog, Lippensynchronisation mit emotionalem Ausdruck und stimmungspassende Hintergrundmusik entstehen automatisch — ohne manuelles Audio-Editing. Aktuell werden Englisch, Chinesisch und Kantonesisch unterstützt.
Warum das wichtig ist
CapCut hat laut eigener Pressemitteilung Seedance 2.0 in mehrere Produktbereiche eingebettet. Nutzer finden das Modell im AI Lab, im AI Generator (App ab Version 17.1.0), im klassischen Workflow über Media → AI Video (App und Desktop) sowie im neuen Video Studio — einer Canvas-basierten Produktionsumgebung im Browser, die vom Anfänger bis zum Profi reichen soll.
Das Modell erzeugt Clips von bis zu 15 Sekunden Länge in sechs Seitenverhältnissen. CapCut hebt besonders die sogenannte „Long-Form Coherence" hervor: Über mehrere Einstellungen hinweg bleibt die visuelle Konsistenz erhalten — ein Problem, an dem viele KI-Videogeneratoren bis heute scheitern (→ KI Woche Analyse).
Multimodal statt nur Text-zu-Video
Seedance 2.0 versteht nicht nur Textprompts, sondern auch Bilder und Referenzvideos als Eingabe. Wer ein Standbild hochlädt und beschreibt, wie sich die Szene bewegen soll, bekommt eine animierte Version zurück. Kamerabewegungen wie „Kamera zoomt langsam rein" lassen sich per natürlicher Sprache steuern.
Auf der Plattform Dreamina ist das Modell bereits neben Googles Veo 3.1 und OpenAIs Sora 2 verfügbar — Nutzer können zwischen den Modellen wählen und direkt vergleichen.
Sicherheit: Unsichtbare Wasserzeichen und Gesichtssperre
CapCut setzt bei Seedance 2.0 auf mehrere Schutzebenen. Zum Start ist die Möglichkeit eingeschränkt, Videos aus Bildern oder Videos mit echten Gesichtern zu generieren. Zusätzlich kommt ein „Invisible Watermarking" zum Einsatz: Eine unsichtbare Markierung soll KI-generierte Inhalte auch dann identifizierbar machen, wenn sie auf anderen Plattformen geteilt oder verändert wurden.
Darüber hinaus werden alle KI-generierten Inhalte mit sichtbaren Wasserzeichen und C2PA Content Credentials versehen — einem Standard, der zunehmend von Plattformen wie LinkedIn und der BBC unterstützt wird. Die Modelle durchliefen vor dem Launch ein Redteaming durch einen externen Partner.
Was kommt als nächstes
CapCut will Seedance 2.0 in den kommenden Wochen in weitere Features integrieren, darunter die eigenständige KI-Plattform Dreamina und die Marketing-Plattform Pippit. Die geografische Erweiterung über die sieben Startländer hinaus soll ebenfalls zeitnah folgen.
Für bestehende Nutzer von Tools wie OpenClaw mit Seedance bedeutet das: Die Produktionsinfrastruktur wandert zunehmend in die Plattform selbst. Wer bisher externe Agenten brauchte, um KI-Video in den Editing-Workflow einzubinden, bekommt das jetzt aus einer Hand.
🎯 Was das für die Praxis bedeutet
1. Content-Teams in Schwellenländern profitieren zuerst: Der Rollout startet in Südostasien und Lateinamerika — Regionen mit hoher CapCut-Nutzung und wachsender Creator Economy.
2. Audio-Integration spart einen kompletten Produktionsschritt: Synchronisierter Dialog und Hintergrundmusik direkt im generierten Video eliminieren die Notwendigkeit separater Audio-Tools.
3. Plattformstrategie beobachten: Mit Seedance 2.0 neben Veo 3.1 und Sora 2 auf Dreamina positioniert sich ByteDance als Marktplatz für KI-Videomodelle — nicht nur als Anbieter eines eigenen Modells.