Pika Labs — bisher bekannt als KI-Videogenerator — präsentiert mit „Pika AI Selves" einen völlig neuen Produktansatz. Nutzer sollen künftig KI-Agenten erschaffen können, die als persistente digitale Stellvertreter agieren: mit eigenem Gedächtnis, individuellen Eigenschaften und der Fähigkeit, eigenständig zu handeln. Eine Warteliste ist bereits geöffnet.
{{tweet:https://x.com/pika_labs/status/2024919175878377587}}Was sind „AI Selves"?
Die Metapher, die Pika Labs wählt, ist bewusst organisch: Man „gebiert" einen KI-Agenten, „zieht ihn auf" und „lässt ihn frei". Klingt verstörend, beschreibt aber ein Konzept, das über klassische KI-Assistenten hinausgeht. Ein AI Self ist kein Chatbot — es ist eine lebendige Erweiterung des Nutzers mit folgenden Eigenschaften:
- Persistentes Gedächtnis: Der Agent merkt sich Konversationen, Vorlieben und Kontext über Sitzungen hinweg
- Individuelle Eigenschaften: Von der Erdnussallergie bis zum Lieblingsfilm — der Agent kennt die Details des Nutzers
- Autonome Handlungsfähigkeit: Nachrichten versenden, Spiele entwickeln, Telefonate führen — unabhängig vom Nutzer
Von Videogenerierung zu digitalen Doppelgängern
Pika Labs vollzieht damit einen bemerkenswerten Pivot. Das Unternehmen, das sich mit KI-generierten Videos einen Namen gemacht hat, erweitert sein Produktportfolio in Richtung agentischer KI. Die „Pika Living Initiative" ist der Rahmen, unter dem AI Selves über die Warteliste auf pika.me angekündigt werden.
Das Timing ist kein Zufall: Agentische KI ist das dominante Thema im Februar 2026. OpenAI hat mit Codex vorgelegt, Anthropic mit Claude Code Security nachgezogen, Google arbeitet an Gemini-Agenten. Pika positioniert sich in einer eigenen Nische — weniger Business-Tool, mehr digitaler Stellvertreter.
Die ethischen Fragen
Die Idee, einen KI-Agenten zu haben, der stellvertretend telefoniert oder Nachrichten in Gruppenchats sendet, wirft fundamentale Fragen auf:
- Authentizität: Weiß mein Gesprächspartner, dass er mit meinem AI Self spricht?
- Verantwortung: Wer haftet, wenn der Agent etwas Falsches tut oder sagt?
- Identität: Verwischt die Grenze zwischen Person und Agent?
Im Kontext des boomenden Companion-Marktes (Character.ai, Replika) ist Pikas Ansatz eine logische Weiterentwicklung. Statt einem KI-Freund bekommt man ein KI-Ich. Das ist technologisch faszinierend — und gesellschaftlich brisant.
📊 Einordnung
Pika AI Selves steht noch am Anfang — bisher ist nur eine Warteliste verfügbar, kein fertiges Produkt. Doch die Richtung ist bezeichnend: Der Markt für agentische KI fragmentiert sich. Während OpenAI und Anthropic auf professionelle Coding- und Business-Agenten setzen, zielt Pika auf die persönliche Ebene. Der Schritt vom Videogenerator zum autonomen Agenten ist ambitioniert, aber riskant. Die ethischen Fragen — Authentizität, Haftung, Identitätsverwischung — sind weitgehend ungeklärt und werden europäische Regulierer beschäftigen.
🎯 Was bedeutet das konkret?
Drei Aspekte, die Unternehmen im Blick behalten sollten:
1. Marketing: AI Selves könnten die nächste Stufe personalisierter Kundenansprache werden — wenn
Transparenzpflichten erfüllt werden.
2. HR-Richtlinien: Die Grenze zwischen Mitarbeiter und KI-Agent wird zunehmend unscharf.
Unternehmen sollten jetzt Richtlinien für den Einsatz persönlicher KI-Agenten im beruflichen Kontext
entwickeln.
3. DSGVO-Vorbereitung: Persistentes Gedächtnis und autonomes Handeln werfen massive
Datenschutzfragen auf. Juristische Klärung ist dringend nötig.