Unsere Einordnung
David Duvenaud war Teamleiter für Alignment-Evaluierung bei Anthropic und lehrt Informatik an der University of Toronto. In diesem ausführlichen Gespräch mit Rob Wiblin vom 80,000 Hours Podcast legt er eine These vor, die selbst eingefleischte KI-Optimisten ins Grübeln bringen dürfte: Auch wenn wir das Alignment-Problem vollständig lösen — also sicherstellen, dass jede KI genau das tut, was ihre Betreiber wollen — verliert die Menschheit trotzdem die Kontrolle.
Der Kern des Arguments: Demokratie ist kein Naturgesetz. Sie entstand, weil Staaten gebildete, produktive Bürger brauchten — für Wirtschaft und Militär. Mit KI-Systemen, die beides besser und billiger erledigen, verschwindet dieser Anreiz. „Der Grund, warum Staaten uns im Westen in den letzten 200 bis 300 Jahren so gut behandelt haben, ist, dass sie uns gebraucht haben", sagt Duvenaud. „Sobald man gebraucht wird, kann das Leben nur so schlecht werden. Genau das wird sich ändern."
Duvenaud und seine Co-Autoren beschreiben drei Mechanismen der schrittweisen Entmachtung. Ökonomisch werden Menschen von unverzichtbaren Produzenten zu dem, was er „lästige Parasiten" nennt — ähnlich wie die englische Aristokratie, die trotz formalem Landbesitz während der Industrialisierung an realer Wirtschaftsmacht verlor. Politisch wird Demokratie zur Belastung: Regierungen mit Millionen arbeitsloser Bürger, die als Vollzeit-Aktivisten um Umverteilung kämpfen, stehen im Nachteil gegenüber autoritären Systemen, die ihre Bevölkerung effizient ruhigstellen. Kulturell wird menschliche Kommunikation zunehmend durch Maschine-zu-Maschine-Interaktion ersetzt, wobei kompetitive Selektion „heuschreckenartige" Wachstumsstrategien gegenüber menschlichen Werten wie Kunst und Gemeinschaft bevorzugt.
Besonders brisant: Duvenaud schätzt die Wahrscheinlichkeit eines „Dooms" — also der Zerstörung dessen, was die Menschheit wertschätzt — bis 2100 auf 70 bis 80 Prozent. Das ist keine Randposition eines Aktivisten, sondern die Einschätzung eines Forschers, der jahrelang an der vordersten KI-Front gearbeitet hat.
Was bleibt als Gegenmaßnahme? Das Gespräch lotet verschiedene Ansätze aus: den „Gradual Disempowerment Index" als Frühwarnsystem, die Frage, wer KI-Verfassungen und Systemprompts schreiben darf, und die Rolle globaler Koordination als letzter Hebel. Einfache Lösungen bietet Duvenaud nicht — aber seine Diagnose macht klar, dass technisches Alignment nur die halbe Miete ist.