Beim Weltwirtschaftsforum in Davos im Januar 2026 sprach KI-Pionier Yoshua Bengio — Turing-Preisträger und einer der wenigen Menschen, die das Deep Learning miterfunden haben — gemeinsam mit Tristan Harris (Center for Humane Technology) die vielleicht unbequemste Wahrheit der KI-Debatte aus: „Wir befinden uns in einem Wettrennen um den Bau Gottes — und niemand am Steuer fragt, ob das eine gute Idee ist."
Das Alignment-Problem ist real
Bengios Warnung auf der Davos-Bühne war kein akademischer Vortrag, sondern ein Alarmruf. Der Kernpunkt: Das sogenannte Alignment-Problem — die Frage, wie sichergestellt werden kann, dass KI-Systeme menschliche Werte und Absichten zuverlässig reflektieren — ist nicht gelöst. Und die Fortschritte in der KI-Entwicklung übersteigen die Fortschritte in der KI-Sicherheitsforschung um ein Vielfaches.
Bengio verwies auf eine erschreckende Asymmetrie: Während die Frontier-Labs (OpenAI, Google DeepMind, Anthropic, Meta) zusammen über 100 Milliarden Dollar in die Entwicklung immer leistungsfähigerer Modelle investieren, fließen weniger als 2 Prozent dieser Summe in Alignment- und Sicherheitsforschung. „Das ist, als würde man einen Kernreaktor bauen und 98 Prozent des Budgets in die Leistungssteigerung stecken — und 2 Prozent in die Sicherheitssysteme", sagte Bengio.
Tristan Harris: Die falschen Anreize
Tristan Harris, bekannt geworden durch seine Arbeit zum „Attention Economy"-Problem bei Social Media, ergänzte die technische Perspektive um eine systemische: Die Anreizstrukturen der KI-Branche sind fundamental falsch aufgestellt.
Die Unternehmen, die KI entwickeln, verdienen Geld durch Geschwindigkeit: Wer zuerst das leistungsfähigste Modell veröffentlicht, gewinnt Kunden, Investoren und Marktanteile. Sicherheit hingegen kostet Zeit und Geld — sie verlangsamt die Entwicklung und bringt keinen kurzfristigen Wettbewerbsvorteil. „Die Incentives sind so gesetzt, dass das risikoreichste Verhalten belohnt wird", sagte Harris. „Das kennen wir von Social Media. Da hat es Demokratien destabilisiert. Bei KI geht es um existenzielle Risiken."
„Das Zeitfenster schließt sich"
Besonders alarmierend war Bengios zeitliche Einordnung. Er verwies auf die METR-Daten, die zeigen, dass sich die Leistungsfähigkeit von KI-Modellen alle 7 bis 10 Monate verdoppelt. Bei diesem Tempo könnten Systeme, die die menschliche Intelligenz in den meisten Bereichen übertreffen, bereits zwischen 2027 und 2030 Realität werden.
„Das Zeitfenster für Governance schließt sich", warnte Bengio. „Wenn wir warten, bis die Systeme da sind, ist es zu spät. Dann haben wir übermenschliche KI und keine Kontrollmechanismen. Das ist kein hypothetisches Risiko, das ist ein planbares Szenario."
Die Metapher vom „Bau Gottes"
Die provokante Formulierung — ein Wettrennen um den Bau Gottes — wählte Harris bewusst. Sie verweist nicht auf religiöse, sondern auf kybernetische Allmacht: Ein System, das besser denkt als jeder Mensch, das alles weiß, was digital verfügbar ist, und das autonom handeln kann, hat Eigenschaften, die historisch nur göttlichen Wesen zugeschrieben wurden. Und doch wird es von Unternehmen gebaut, deren primäres Ziel der Shareholder Value ist.
📊 Einordnung
Bengios und Harris' Warnung in Davos ist keine Panikmache zweier Randpersonen. Bengio ist Turing-Preisträger, einer der Gründerväter des Deep Learning, und sein Wort hat in der Forschungscommunity enormes Gewicht. Dass er die Davos-Bühne nutzt, um öffentlich zu warnen, zeigt: Die internen Einschätzungen in der Forschungscommunity sind deutlich alarmierender als das, was in der breiten Öffentlichkeit ankommt. Die Kombination aus Bengios technischer Autorität und Harris' systemischem Blick macht diese Warnung besonders glaubwürdig — und besonders unbequem.
🎯 Was bedeutet das konkret?
- Für Entscheidungsträger: Nehmen Sie das Alignment-Problem ernst. Die KI-Strategie Ihres Unternehmens sollte nicht nur Effizienzgewinne adressieren, sondern auch Risikoszenarien — was passiert, wenn ein KI-System Dinge tut, die Sie nicht beabsichtigt haben?
- Für die Politik: Die EU hat mit dem AI Act einen ersten Schritt getan. Aber Bengio fordert mehr: Internationale Abkommen nach dem Vorbild der Genfer Konventionen, die bestimmte KI-Entwicklungen präventiv einschränken.
- Für jeden Einzelnen: Informieren Sie sich. Die Entscheidungen, die in den nächsten 2 bis 3 Jahren über KI-Sicherheit getroffen werden, betreffen buchstäblich jeden Menschen auf dem Planeten.