Videogenerierung in Echtzeit — was sich lange nach Science Fiction anfühlte, ist diese Woche auf der NVIDIA GTC als funktionierender Prototyp gezeigt worden. Runway hat in Zusammenarbeit mit NVIDIA ein neues Modell vorgestellt, das HD-Videos mit einer Time-to-first-Frame von unter 100 Millisekunden generiert — schneller, als ein menschliches Auge einen Schnitt wahrnehmen kann.

Echtzeit auf Vera Rubin

Das Modell läuft auf NVIDIAs neuester Vera Rubin-Hardware und ist laut Runways Ankündigung als Research Preview konzipiert. Es bildet die Grundlage für GWM-1, Runways "General World Model" — ein System, das nicht nur Videos generiert, sondern Weltsimulationen in Echtzeit berechnen soll.

Die technische Bedeutung ist tiefgreifend: Bisherige Videogenerierungsmodelle wie Sora, Kling oder Runways eigenes Gen-3 benötigen für einen kurzen Clip Sekunden bis Minuten. Echtzeit-Generierung unter 100ms eröffnet ein fundamental anderes Anwendungsspektrum — von interaktiven Spielewelten über personalisierte Filmsequenzen bis hin zu simulierten Umgebungen für Robotik und autonomes Fahren.

Der individualisierte Streaming-Film rückt näher

Technologisch ist der Weg zum live generierten, individualisierten Film-Streaming damit deutlich kürzer geworden. Wenn ein Modell HD-Video in Echtzeit erzeugen kann, ist die Generierung personalisierter Filmsequenzen — angepasst an Präferenzen, Sprache, visuelle Vorlieben des Zuschauers — keine theoretische Frage mehr, sondern eine ökonomische. Die entscheidende Hürde wird nicht mehr die Technologie sein, sondern die Kosten: Vera-Rubin-Hardware ist nicht billig, und die Inferenzkosten für HD-Video in Echtzeit dürften auf absehbare Zeit erheblich bleiben.

Runway positioniert sich mit dieser Ankündigung deutlich vor der Konkurrenz. Die Kombination aus Co-Design von Modellen und Hardware — ein Ansatz, den auch Apple und Google verfolgen — signalisiert, dass die nächste Generation von KI-Videotools nicht mehr modellgetrieben sein wird, sondern hardwaregetrieben.

🎯 Was das für die Praxis bedeutet

1. Spieleentwicklung wird revolutioniert: Echtzeit-Videogenerierung unter 100ms ist schnell genug für interaktive Anwendungen. Spieleentwickler und VR-Studios sollten die Entwicklung von GWM-1 genau beobachten.

2. Personalisiertes Video wird machbar: Marketing-Teams können sich auf eine Zukunft einstellen, in der Werbevideos in Echtzeit für jeden Zuschauer individuell generiert werden. Die Technologie ist da — die Kostenstruktur muss noch folgen.

3. Hardware wird zum Flaschenhals: Der Runway-Durchbruch zeigt: Die nächsten Fortschritte kommen nicht nur aus besseren Modellen, sondern aus dem Co-Design mit der Hardware. Wer auf generische Cloud-GPUs setzt, könnte den Anschluss verlieren.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
@runwayml auf X ↗
Teilen: