Pika Labs — bisher bekannt als KI-Videogenerator — präsentiert mit „Pika AI Selves" einen völlig neuen Produktansatz. Nutzer sollen künftig KI-Agenten erschaffen können, die als persistente digitale Stellvertreter agieren: mit eigenem Gedächtnis, individuellen Eigenschaften und der Fähigkeit, eigenständig zu handeln. Eine Warteliste ist bereits geöffnet.

{{tweet:https://x.com/pika_labs/status/2024919175878377587}}

Was sind „AI Selves"?

Die Metapher, die Pika Labs wählt, ist bewusst organisch: Man „gebiert" einen KI-Agenten, „zieht ihn auf" und „lässt ihn frei". Klingt verstörend, beschreibt aber ein Konzept, das über klassische KI-Assistenten hinausgeht. Ein AI Self ist kein Chatbot — es ist eine lebendige Erweiterung des Nutzers mit folgenden Eigenschaften:

  • Persistentes Gedächtnis: Der Agent merkt sich Konversationen, Vorlieben und Kontext über Sitzungen hinweg
  • Individuelle Eigenschaften: Von der Erdnussallergie bis zum Lieblingsfilm — der Agent kennt die Details des Nutzers
  • Autonome Handlungsfähigkeit: Nachrichten versenden, Spiele entwickeln, Telefonate führen — unabhängig vom Nutzer

Von Videogenerierung zu digitalen Doppelgängern

Pika Labs vollzieht damit einen bemerkenswerten Pivot. Das Unternehmen, das sich mit KI-generierten Videos einen Namen gemacht hat, erweitert sein Produktportfolio in Richtung agentischer KI. Die „Pika Living Initiative" ist der Rahmen, unter dem AI Selves über die Warteliste auf pika.me angekündigt werden.

Das Timing ist kein Zufall: Agentische KI ist das dominante Thema im Februar 2026. OpenAI hat mit Codex vorgelegt, Anthropic mit Claude Code Security nachgezogen, Google arbeitet an Gemini-Agenten. Pika positioniert sich in einer eigenen Nische — weniger Business-Tool, mehr digitaler Stellvertreter.

Die ethischen Fragen

Die Idee, einen KI-Agenten zu haben, der stellvertretend telefoniert oder Nachrichten in Gruppenchats sendet, wirft fundamentale Fragen auf:

  • Authentizität: Weiß mein Gesprächspartner, dass er mit meinem AI Self spricht?
  • Verantwortung: Wer haftet, wenn der Agent etwas Falsches tut oder sagt?
  • Identität: Verwischt die Grenze zwischen Person und Agent?

Im Kontext des boomenden Companion-Marktes (Character.ai, Replika) ist Pikas Ansatz eine logische Weiterentwicklung. Statt einem KI-Freund bekommt man ein KI-Ich. Das ist technologisch faszinierend — und gesellschaftlich brisant.

📊 Einordnung

Pika AI Selves steht noch am Anfang — bisher ist nur eine Warteliste verfügbar, kein fertiges Produkt. Doch die Richtung ist bezeichnend: Der Markt für agentische KI fragmentiert sich. Während OpenAI und Anthropic auf professionelle Coding- und Business-Agenten setzen, zielt Pika auf die persönliche Ebene. Der Schritt vom Videogenerator zum autonomen Agenten ist ambitioniert, aber riskant. Die ethischen Fragen — Authentizität, Haftung, Identitätsverwischung — sind weitgehend ungeklärt und werden europäische Regulierer beschäftigen.

🎯 Was bedeutet das konkret?

Drei Aspekte, die Unternehmen im Blick behalten sollten:

1. Marketing: AI Selves könnten die nächste Stufe personalisierter Kundenansprache werden — wenn Transparenzpflichten erfüllt werden.
2. HR-Richtlinien: Die Grenze zwischen Mitarbeiter und KI-Agent wird zunehmend unscharf. Unternehmen sollten jetzt Richtlinien für den Einsatz persönlicher KI-Agenten im beruflichen Kontext entwickeln.
3. DSGVO-Vorbereitung: Persistentes Gedächtnis und autonomes Handeln werfen massive Datenschutzfragen auf. Juristische Klärung ist dringend nötig.

Teilen: