Pika Labs setzt auf Geschwindigkeit: Nur sechs Wochen nach der Wartelisten-Ankündigung für „AI Selves" sitzt der KI-Doppelgänger jetzt tatsächlich im Google-Meet-Call. PikaStream 1.0 heißt das Echtzeit-Videomodell, das Agenten ein Gesicht und eine Stimme gibt — und das für jeden Agenten funktioniert, nicht nur für Pikas eigene.
KI-Avatar im Meeting: So funktioniert PikaStream 1.0
Das Prinzip ist simpel, die Umsetzung komplex: Man schickt seinem KI-Agenten einen Google-Meet-Link, und dieser tritt dem Call mit einem animierten Avatar bei. Kein starres Standbild, kein Deepfake-Filter — PikaStream 1.0 erzeugt in Echtzeit natürliche Gesichtsbewegungen, emotionale Reaktionen und kontextbezogene Antworten. Der Agent behält sein Gedächtnis und seine Persönlichkeit aus früheren Chats bei und kann während des Gesprächs sogar agentische Aufgaben ausführen — etwa Aufgaben anlegen, Dokumente durchsuchen oder Entscheidungen treffen.
PikaStream 1.0 unterstützt aktuell Google Meet. Laut Pikas FAQ sollen Zoom und FaceTime folgen.
Open Source als Wachstumshebel
Der strategisch interessanteste Zug: Pika hat das Video-Meeting-Feature als Open-Source-Skill auf GitHub veröffentlicht — unter Apache-2.0-Lizenz, kompatibel mit Claude Code, OpenClaw und im Grunde jedem beliebigen KI-Coding-Agenten. Die Skills folgen einem standardisierten Aufbau (SKILL.md, Scripts, Requirements), den der Agent automatisch erkennt und ohne Konfiguration nutzen kann.
Das Kalkül dahinter liegt auf der Hand: Jeder Agent, der Pikas Video-Skill nutzt, wird zum zahlenden API-Kunden. Die Developer-API unter pika.me/dev verkauft Tokens — von 800 Stück für 7,99 Dollar bis 15.000 für 149 Dollar.
Vom Videogenerator zur Plattform
Pikas Transformation ist inzwischen offiziell besiegelt. Die eigene FAQ stellt unmissverständlich klar: „It's not a video creation tool; they're a full living AI that operates across the internet." (→ KI Woche Analyse) Das Unternehmen, das mit KI-generierten Kurzvideos bekannt wurde, hat sich in eine Agent-Plattform verwandelt.
Die Zahlen belegen die Ambitionen: Über 15 Plattform-Integrationen — von Slack und WhatsApp über X und Instagram bis hin zu GitHub, Notion und Figma. Voice Cloning aus kurzen Audioaufnahmen. Avatar-Generierung per Prompt. Ein persistentes Gedächtnis, das über alle Plattformen hinweg funktioniert. Und jetzt: Video-Calls in Echtzeit.
Die nüchterne Einordnung
Bemerkenswert an dem Produkt ist weniger die einzelne Funktion als vielmehr die Geschwindigkeit. Im Februar noch Warteliste, im April bereits Open-Source-Beta mit funktionierendem Video-Call (→ KI Woche Analyse vom Februar).
Allerdings: PikaStream 1.0 ist eine Beta. Die Gesichtsanimation dürfte in vielen Fällen noch unnatürlich wirken, und die Beschränkung auf Google Meet ist ein Engpass. Ob Unternehmen ihre Agenten tatsächlich in Kundenmeetings setzen werden, hängt von weit mehr ab als von beeindruckenden Demos.
🎯 Was das für die Praxis bedeutet
1. Video-Agenten ausprobieren: Das Open-Source-Paket auf GitHub erlaubt jedem Entwicklerteam, PikaStream 1.0 in den eigenen Workflow zu integrieren — zum Beispiel für automatisierte Stand-ups oder Kundensupport-Calls.
2. Meeting-Protokolle automatisieren: PikaStream erstellt nach jedem Call automatische Meeting-Notes. Für Teams, die ohnehin mit KI-Agenten arbeiten, erspart das den separaten Transkriptions-Service.
3. Transparenz-Richtlinien festlegen: Bevor ein KI-Avatar im Meeting sitzt, braucht es klare Regeln: Wissen die Teilnehmer, dass sie mit einem Agenten sprechen? Wer haftet für die Aussagen? Diese Fragen sollten vor dem ersten Einsatz geklärt sein.