Ein Solo-Entwickler baut einen vollwertigen 3D-Platformer in drei Tagen - mit fast ausschließlich KI-generierten Assets. Gleichzeitig zeigt ein anderer Entwickler, wie Claude direkt in Blender 3D-Modelle und Animationen erstellt. Dazu: Partikeleffekte per Prompt, ein komplett vibecoded Kart-Rennspiel, GPT-5.5 als 3D-Generator und ein Tool, das 2D-Zeichnungen in begehbare 3D-Welten verwandelt. Die gesamte 3D-Pipeline steht vor einer radikalen Beschleunigung.

Drei Tage, ein Spiel: Stefans KI-Workflow

Der Entwickler Stefan hat ein Steampunk-Katzen-Universum namens "Clockwork Cats" in der Unreal Engine 5 gebaut - und zwar in 72 Stunden. Das Besondere: Nahezu alle visuellen Assets stammen aus KI-Tools. Für die 3D-Modelle kam Tripo AI zum Einsatz, Texturen und Konzeptgrafiken wurden ebenfalls generiert. Das Ergebnis ist ein spielbarer Platformer mit mehreren Leveln, Gegnern und Sammelobjekten.

In seinem Begleitvideo dokumentiert er den kompletten Workflow: Konzeptphase, Asset-Generierung, Import, Leveldesign, Gameplay-Tuning. Was früher ein kleines Team über Wochen beschäftigt hätte, erledigt eine Person mit den richtigen KI-Werkzeugen in einem langen Wochenende.

Claude als Blender-Assistent

Parallel dazu experimentiert Vas Feofanov mit einem völlig anderen Ansatz: Er lässt Claude über Blenders Python-Schnittstelle direkt 3D-Objekte und Animationen erzeugen. Die Brücke bildet Three.js als Zwischenschicht zwischen dem Sprachmodell und der 3D-Software. In seinen Demos erstellt Claude geometrische Formen, weist Materialien zu und programmiert Bewegungsabläufe - alles über natürliche Spracheingaben.

Das klingt nach einer Spielerei, ist aber ein ernstzunehmender Proof of Concept. Blenders Python-API (bpy) ist mächtig genug, um damit professionelle Produktionspipelines zu steuern. Wenn ein Sprachmodell diese API zuverlässig bedienen kann, wird der 3D-Artist nicht ersetzt - aber er bekommt einen extrem schnellen Assistenten, der Routineaufgaben in Sekunden erledigt.

Partikel-Effekte per Prompt: Casberry Particles

Noch ein Werkzeug, das in dieselbe Richtung zeigt: Casberry Particles ist ein kostenloser, browserbasierter 3D-Partikelsimulator, der auf Three.js aufbaut. Der Workflow: Man beschreibt den gewünschten Effekt in natürlicher Sprache, lässt ein Sprachmodell den passenden Code generieren und fügt ihn in den integrierten Editor ein. Das Ergebnis sind komplexe Partikelschwärme in Echtzeit - gesteuert durch selbstdefinierte Physik-Algorithmen.

Besonders interessant: Casberry unterstützt verschiedene Eingabequellen wie Bilder, Videos und 3D-Modelle (GLB, OBJ) als Partikelquellen. Die fertigen Simulationen lassen sich als HTML, React-Komponenten oder rohe Three.js-Module exportieren - direkt einsetzbar in eigenen Webprojekten. Für Motion Design, Datenvisualisierung oder Game-Effekte ist das ein Werkzeug, das man bisher teuer einkaufen oder mühsam selbst programmieren musste.

100 % Vibecoding: KARTLAND NEO

Dass die Kombination aus KI und Three.js nicht bei Partikeln aufhört, zeigt Ricardo de Zoete mit seinem Projekt KARTLAND NEO. Das komplette Kart-Rennspiel ist zu 100 % vibecoded - entstanden mit OpenAI Codex und Three.js. Dynamische Minimap, Drift-Boost-Partikel, Bremsspuren, Ribbons und eine überarbeitete Physik-Engine: alles per KI-Codegenerierung implementiert, ohne eine einzige Zeile manuell zu schreiben.

Das Projekt demonstriert einen wichtigen Punkt: Vibe Coding funktioniert nicht nur für einfache Prototypen. Mit dem richtigen Tooling entstehen spielbare Produkte mit echtem Gameplay-Feedback - Physik, Partikeleffekte, UI-Overlays inklusive.

GPT-5.5 als 3D-Generator

Dass selbst universelle Sprachmodelle mittlerweile brauchbare 3D-Ergebnisse liefern, zeigt Chris Tate von Vercel Labs. In einem kurzen Video demonstriert er, wie GPT-5.5 direkt dreidimensionale Szenen erzeugt - ohne spezialisierte 3D-Tools, ohne manuelle Nachbearbeitung. Sein lakonischer Kommentar: "GPT-5.5 keeps surprising me."

Das ist bemerkenswert, weil GPT-5.5 kein dezidiertes 3D-Modell ist. Die Fähigkeit, räumliche Strukturen zu generieren, entsteht als Nebenprodukt immer leistungsfähigerer Foundation Models. Für schnelle Prototypen und Konzeptvisualisierungen reicht das bereits aus - und die Qualität verbessert sich mit jeder Modellgeneration.

Von 2D zu 3D: Mint verwandelt Zeichnungen in begehbare Welten

Den vielleicht spektakulärsten Anwendungsfall liefert Mint. Das Tool nimmt klassische 2D-Zeichnungen als Input und erzeugt daraus vollständige, explorierbare 3D-Umgebungen. In der Demo nimmt der Entwickler Landschaften aus Batman: The Animated Series, lädt sie in Mint - und innerhalb von Minuten stehen fertige 3D-Environments bereit, die man durchschreiten und in denen man arbeiten kann.

Der Kernpunkt: Was ein Team von Animatoren in drei Jahren Arbeit erstellt hat, wird in Minuten in eine dreidimensionale Umgebung überführt. Für Animationsstudios, die auf bestehenden Bibliotheken von 2D-Assets sitzen, öffnet das eine völlig neue Verwertungsebene. Für neue Projekte senkt es die Einstiegshürde in die 3D-Produktion drastisch.

Die 3D-Pipeline schmilzt zusammen

All diese Projekte passen in ein größeres Bild. Tencent hat gerade HY-World 2.0 veröffentlicht, ein Open-Source-Weltmodell, das komplette 3D-Szenen aus Text generiert. Hunyuan3D 2.1 macht dasselbe für einzelne 3D-Objekte aus Fotos. Und beim Vibe Jam 2026 haben Entwickler gezeigt, dass KI-gestützte Spieleentwicklung bereits wettbewerbsfähige Ergebnisse liefert.

Was sich hier abzeichnet: Die traditionelle 3D-Produktionskette - Konzept, Modellierung, Texturierung, Rigging, Animation - wird nicht Schritt für Schritt digitalisiert. Sie wird gleichzeitig an mehreren Stellen durch KI-Werkzeuge ersetzt oder drastisch beschleunigt. Vibe Coding hat gezeigt, dass Code per Sprachbefehl entsteht. Jetzt passiert dasselbe mit 3D-Inhalten.

Für kleine Studios und Indie-Entwickler ist das eine enorme Chance: Projekte, die bisher an fehlenden Art-Ressourcen gescheitert sind, werden plötzlich machbar. Für spezialisierte 3D-Dienstleister wird es allerdings eng. Wenn der Prototyp in drei Tagen steht und Claude die Animationen per Chat erstellt, braucht es sehr gute Gründe, einen monatelangen manuellen Prozess zu rechtfertigen.

🎯 Was das für die Praxis bedeutet

1. KI-3D-Tools jetzt testen: Tripo AI, Meshy und Tencents Open-Source-Modelle sind kostenlos oder günstig verfügbar. Wer 3D-Content braucht, sollte den Workflow einmal durchspielen - die Lernkurve ist überraschend flach.

2. Blender-Automatisierung im Auge behalten: Claudes Fähigkeit, Blenders Python-API zu steuern, ist noch früh. Aber für repetitive Aufgaben wie Batch-Rendering, Material-Zuweisung oder einfache Animationen lohnt sich ein Experiment schon heute.

3. Browser-Tools wie Casberry nutzen: Für Partikeleffekte, Motion Design und Web-3D-Projekte gibt es jetzt kostenlose Browser-Tools mit KI-Unterstützung und direktem Export nach React/Three.js. Kein lokales Setup nötig.

4. Prototyping radikal beschleunigen: Drei Tage für einen spielbaren 3D-Prototyp sind ein realistischer Zeitrahmen. KARTLAND NEO zeigt, dass sogar komplette Kart-Rennspiele per Vibecoding entstehen können.

5. 2D-Assets in 3D verwandeln: Tools wie Mint konvertieren bestehende 2D-Grafiken in dreidimensionale Umgebungen. Wer über Bibliotheken von Concept Art, Illustrationen oder Animationshintergründen verfügt, kann daraus sofort 3D-Content ableiten.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
@Stefan_3D_AI auf X ↗ Stefan YouTube ↗ @heyvasos auf X ↗ @CopyRebeldia auf X ↗ @RicardoDeZoete auf X ↗ @ctatedev auf X ↗ @mintdotgg auf X ↗
Teilen: