Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Ziel

General AI

General AI (Allgemeine Künstliche Intelligenz, AGI) ist die hypothetische KI, die jede intellektuelle Aufgabe auf menschlichem Niveau oder darüber beherrscht — im Gegensatz zu Narrow AI, die nur spezifische Aufgaben löst.

Die Definition ist umstritten. DeepMind definiert sechs Stufen: „No AI" → „Emerging" → „Competent" → „Expert" → „Virtuoso" → „Superhuman" AGI. OpenAI definiert fünf Levels: „Chatbots" (Level 1, heute) → „Reasoners" → „Agents" → „Innovators" → „Organizations" (Level 5, AGI). Die Definitionen divergieren — ein Zeichen, dass kein Konsens existiert.

Die Zeitrahmen-Debatte: Sam Altman (OpenAI) deutet auf 2025-2030 hin. Demis Hassabis (DeepMind) ist vorsichtiger, aber optimistisch. Yann LeCun (Meta) argumentiert, dass aktuelle LLMs fundamental begrenzt sind und neue Paradigmen nötig sind (World Models, Joint Embedding). Gary Marcus vertritt die Position, dass LLMs grundsätzlich nicht zu AGI führen können.

Was fehlt aktuellen Systemen zu AGI? Robustes Reasoning (über mehrere Schritte, fehlerfrei). Langzeitgedächtnis und Planung. Handeln in der physischen Welt (Embodiment). Transfer über radikal verschiedene Domänen. Kausales Verständnis (nicht nur Korrelation). Selbstverbesserung.

Die Sicherheitsperspektive: Wenn AGI möglich ist, sind die Risiken existenziell — ein System, das schlauer ist als jeder Mensch, in allen Bereichen. Die Ausrichtung (Alignment) eines solchen Systems auf menschliche Werte ist ein offenes, möglicherweise unlösbares Problem. Das Argument für KI-Sicherheitsforschung jetzt: Die Werkzeuge zur Kontrolle müssen vor dem System existieren, nicht danach.

AGI
🔗 Link kopiert!