Googles KI-Design-Tool Stitch bekommt das Feature, das sich Nutzer am häufigsten gewünscht haben: Direct Edits. Ab sofort lassen sich generierte UI-Designs nicht nur per Textprompt erstellen, sondern auch manuell nachbearbeiten — Text ändern, Bilder tauschen, einzelne Komponenten gezielt anpassen. Und wer es besonders eilig hat, markiert einen Bereich und lässt einen KI-Agenten die Feinarbeit erledigen.

Was Stitch kann — und warum Direct Edits ein Wendepunkt ist

Stitch ist ein experimentelles Tool von Google Labs, das seit der Vorstellung bei Google I/O 2025 als Beta verfügbar ist. Das Prinzip: Man beschreibt per Textprompt oder lädt ein Bild hoch, und Stitch generiert daraus vollständige UI-Designs für mobile und Web-Anwendungen — inklusive mehrerer Screens und interaktiver Prototypen.

Das Problem bisher: Was die KI generierte, war ein Fertigprodukt zum Mitnehmen. Wer den Titel einer Seite ändern, ein Bild austauschen oder einen Button anpassen wollte, musste entweder von vorne anfangen oder den gesamten Prompt umschreiben. Das neue Direct Edits-Feature ändert das grundlegend.

Drei Wege zur Bearbeitung

Google bietet gleich drei Zugangswege an:

  • Edit Dropdown: Screen auswählen und über das Dropdown-Menü in den Bearbeitungsmodus wechseln.
  • Edit Tool: Über die globale Toolbar direkt auf Bearbeitungselemente zugreifen.
  • Doppelklick-Shortcut: Ein Doppelklick auf einen Screen zentriert ihn, ein weiterer Doppelklick aktiviert den Direct-Edit-Modus.

Besonders spannend ist die Agent-gestützte Bearbeitung: Nutzer können einen bestimmten Bereich auf dem Screen markieren und einem KI-Agenten per Textbefehl sagen, was geändert werden soll. Das System aktualisiert dann „chirurgisch" nur den markierten Bereich — ohne den Rest des Designs zu verändern.

Vom Prompt zum Produkt — und weiter zu Figma

Stitch positioniert sich damit als Brücke zwischen schnellem KI-Prototyping und professionellem Design-Workflow. Was als Textbeschreibung beginnt, wird zu einem visuellen Prototyp — der sich jetzt auch manuell verfeinern lässt, bevor er exportiert wird. Und der Export ist bemerkenswert vielseitig: Stitch unterstützt den direkten Export nach Figma, aber auch HTML, CSS und React-Komponenten.

Das Tool bietet außerdem seit einem Update im Oktober 2025 Theme-Customization (Light/Dark Mode, Farbpaletten, Eckenradien, Fonts) und kann mehrere Varianten eines Screens gleichzeitig generieren — ideal für A/B-Tests oder Stakeholder-Präsentationen.

Google nennt es „Vibe Design"

Google selbst verwendet für Stitch das Konzept „Vibe Design" — analog zu „Vibe Coding", dem Trend, Software per natürlicher Sprache zu schreiben. Die Idee: Nicht pixelgenau gestalten, sondern die Richtung vorgeben und die KI den Rest machen lassen. Direct Edits ergänzt diesen Ansatz um die nötige Kontrolle: Erst grob generieren, dann gezielt nachbessern.

Noch ist Stitch ein Beta-Produkt von Google Labs, kein offizielles Google-Kernprodukt. Aber das Tempo der Updates zeigt, dass Google hier mehr plant als ein Experiment.

🎯 Was das für die Praxis bedeutet

1. Design-Teams, die bisher: Stunden in Wireframes und erste Mockups investieren, können mit Stitch in Minuten vorankommen — besonders in der frühen Ideenphase, wenn es um Geschwindigkeit statt Perfektion geht.

2. Der Figma-Export macht Stitch direkt anschlussfähig an bestehende Design-Workflows. Ein generiertes UI muss nicht als Screenshot weitergegeben werden, sondern fließt nahtlos in die professionelle Weiterverarbeitung.

3. Für Nicht-Designer —: Produktmanager, Gründer, Entwickler — senkt Stitch die Hürde zur visuellen Kommunikation massiv. Statt einer textlastigen Feature-Beschreibung kann ein interaktiver Prototyp geteilt werden, der in der Qualität über klassischen Wireframes liegt.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
@stitchbygoogle auf X ↗ Google Stitch ↗
Teilen: