Sam Altman wählt am Sonntagmorgen ungewöhnlich drastische Worte. In einem exklusiven Interview mit Axios-Mitbegründer Mike Allen spricht der OpenAI-CEO über den beginnenden „Übergang zur Superintelligenz", warnt vor möglicherweise „welterschütternden" Cyberangriffen noch in diesem Jahr — und legt gleichzeitig ein über 30-seitiges Grundsatzpapier vor, das nichts Geringeres als einen neuen Gesellschaftsvertrag für das Zeitalter der Künstlichen Intelligenz fordert.
Die Botschaft ist unmissverständlich: Weder Washington noch die Welt seien strukturell auf das vorbereitet, was in den nächsten ein bis zwei Jahren passieren werde.
Was Altman konkret ankündigt
Im Gespräch mit Allen liefert Altman konkrete Einschätzungen zur nächsten Modellgeneration. Die aktuellen Systeme machen Programmierer nach eigener Aussage „zwei- bis dreimal produktiver". Die nächste Klasse, so Altman, werde es einem einzelnen Entwickler mit genug Rechenleistung ermöglichen, „die Arbeit eines ganzen Software-Teams" zu erledigen. Für die Wissenschaft prognostiziert er „karrieredefinierende Entdeckungen" — nicht den Nobelpreis, aber den wichtigsten Durchbruch eines Forscherlebens.
Was das in der Praxis heißt, sieht man längst: Jack Dorsey hat bei Block 4.000 Stellen gestrichen — nach einem Rekordquartal, nicht trotz, sondern wegen KI (→ KI Woche Analyse). Amazon-CEO Andy Jassy sprach offen aus, was viele nur flüstern: KI macht ganze Teams überflüssig (→ KI Woche Analyse). Und WiseTech ließ gleich 2.000 Entwickler gehen und erklärte das manuelle Programmieren für beendet (→ KI Woche Analyse).
Cyberangriffe und Biorisiken: Die dunkle Seite des Sprints
Altman richtet im Interview den Blick aber nicht nur auf ökonomische Verschiebungen. Auf die Frage nach konkreten Gefahren nennt er zwei Fronten: Cybersicherheit und Biologie. Er hält es für „absolut möglich", dass noch 2026 ein Cyberangriff von globalem Ausmaß gelingt — getrieben durch die rasant wachsende Fähigkeit der Modelle. Daneben warnt er vor der bald realen Gefahr, dass leistungsstarke Open-Source-Modelle von Terrorgruppen zur Entwicklung neuartiger Krankheitserreger genutzt werden könnten.
Das Brisante daran: Altman stellt klar, dass die Unternehmen das Sicherheitsproblem allein nicht lösen können. Solange die Modelle nur bei „verantwortungsvollen Unternehmen" liegen, lässt sich das Risiko durch Alignment und Sicherheitsfilter managen. Doch Open-Source-Modelle, die Biologie auf Forscherniveau beherrschen, kennen keine solchen Leitplanken. Genau deshalb dringt OpenAI parallel auf „gesellschaftliche Resilienz" — ein Sicherheitsdenken, das über den einzelnen Anbieter hinausgeht.
"Industrial Policy for the Intelligence Age"
Den Kern des Vorstoßes bildet ein Papier mit dem Titel „Industrial Policy for the Intelligence Age", das OpenAI als „Ideensammlung, keine Agenda" positioniert. Das vollständige Dokument skizziert eine Reihe von Maßnahmen, die in ihrer Gesamtheit auf einen radikalen Umbau des Sozialvertrags hinauslaufen:
- Steuerlast verschieben: Weg von Löhnen und Arbeit, hin zu Kapitalerträgen und KI-generierten Produktivitätsgewinnen.
- Beteiligung an KI-Wohlstand: Modelle wie öffentliche Vermögensfonds, die breite Bevölkerungsschichten am Wachstum teilhaben lassen.
- Arbeitszeitverkürzung: Konkret ist von einer Vier-Tage-Woche die Rede, die bei steigender Produktivität den Lebensstandard halten soll.
- Intelligenz als Grundversorgung: KI-Zugang soll langfristig so universell und günstig werden wie Strom oder Wasser. Altman vergleicht es im Interview mit der Stromrechnung: „Man zahlt einmal im Monat, steckt ein, was man braucht, und denkt nicht weiter darüber nach."
- Massive Energieinvestitionen: Um die nötige Rechenkapazität aufzubauen, fordert OpenAI den beschleunigten Ausbau der Energieinfrastruktur.
Dass solche Ideen ausgerechnet aus dem Silicon Valley kommen, überrascht. Altman selbst erzählt im Interview von einem „überzeugten freien Marktwirtschaftler" aus dem Umfeld der Trump-Administration, der einräumte: Wenn KI das Gleichgewicht zwischen Arbeit und Kapital so drastisch verschiebe, „dann müssen wir über neue Ideen nachdenken, um den Kapitalismus am Laufen zu halten".
Das ökonomische Grundproblem: Wenn Produktivität zur Falle wird
Was OpenAI hier beschreibt, ist exakt das Szenario, das der Ökonom Anton Korinek — einer der wenigen Wirtschaftswissenschaftler, die KI wirklich durchdringen — in einem vielbeachteten Vortrag für das Future of Life Institute formuliert hat (→ KI Woche Analyse). Korineks Kernthese: Seit 250 Jahren funktioniert das Versprechen, dass Automatisierung letztlich bessere Jobs hervorbringt. Erstmals in der Geschichte könnte diese Gleichung brechen — nicht weil die Produktivität sinkt, sondern weil KI-Systeme in immer mehr Aufgabenfeldern den Menschen nicht ergänzen, sondern ersetzen. Das Ergebnis: massive Produktivitätsgewinne, die fast ausschließlich beim Kapital landen.
Genau dieses Muster zeigt sich bereits in der Praxis. Anthropics eigener „Economic Index" belegt eine eklatante Kluft zwischen theoretischer KI-Fähigkeit und realer Nutzung (→ KI Woche Analyse). Programmierer sind am stärksten betroffen, Berufseinsteiger spüren wachsenden Druck. Das Gedankenexperiment „Ghost GDP" trieb die Idee noch weiter: Was, wenn KI-getriebene Produktivität Arbeitsplätze, Hypotheken und Konsum in eine Abwärtsspirale reißt (→ KI Woche Analyse)?
Die wachsende Allianz der Warnenden
Was Altmans Vorstoß besonders bemerkenswert macht: Er reiht sich ein in eine inzwischen breite Front. IWF-Chefin Kristalina Georgieva warnte beim Weltwirtschaftsforum in Davos vor einem „Tsunami, der den Arbeitsmarkt trifft" (→ KI Woche Analyse). Anthropic-Chef Dario Amodei sprach bei der Morgan Stanley Conference von einer „radikalen Beschleunigung, die 2026 alle überraschen werde" (→ KI Woche Analyse). Und in Davos warnten KI-Pionier Yoshua Bengio und der Technologie-Ethiker Tristan Harris vor einem „Wettrennen um den Bau Gottes", bei dem das Zeitfenster für Sicherheitsmaßnahmen sich rapide schließe (→ KI Woche Analyse).
Die Parallele ist frappierend: Die Menschen, die KI tatsächlich bauen, sind inzwischen die lautesten Stimmen, die vor ihren Folgen warnen. Altman bringt es im Interview auf den Punkt: „Fast jeder in unserer Branche spürt die Schwere dessen, was wir tun." Ob dieses Verantwortungsbewusstsein ausreicht oder lediglich die Legitimation für noch schnellere Entwicklung liefert, bleibt die offene Frage (→ KI Woche Analyse).
Warum Washington das Heft aus der Hand gibt
Im Interview stellt Allen die provokante Frage: Warum soll man diese Macht nicht einfach verstaatlichen? Altmans Antwort ist aufschlussreich. In „einer anderen Zeit" wäre die Entwicklung von Superintelligenz ein Regierungsprojekt gewesen — wie das Apollo-Programm oder das Manhattan Project. Doch heute, so Altman, funktioniere das nicht mehr. Die USA müssten Superintelligenz an demokratischen Werten ausrichten, bevor es andere tun. Ein Regierungsprojekt würde dafür zu langsam sein.
Der unausgesprochene Subtext: OpenAI beansprucht die Rolle des verantwortungsvollen Architekten, der die Macht aufbaut und gleichzeitig definiert, wie sie kontrolliert werden soll. Dass das Unternehmen mit diesem Papier auch seine eigene Unentbehrlichkeit untermauert, gehört mit zur Wahrheit.
🎯 Was das für die Praxis bedeutet
1. KI-Sicherheit ernst nehmen: Altmans Warnung vor Cyberangriffen von globalem Ausmaß deckt sich mit Einschätzungen von Sicherheitsbehörden und KI-Laboren weltweit. Unternehmen müssen ihre IT-Sicherheitsstrategie jetzt modernisieren — nicht nächstes Quartal.
2. Beteiligungsmodelle vorbereiten: Der Trend ist eindeutig: Von Dorsey über Jassy bis Altman sprechen die einflussreichsten Tech-CEOs davon, dass Arbeit in ihrer heutigen Form nicht mehr reichen wird. Wer Mitarbeiter jetzt schon am Unternehmenserfolg beteiligt, ist besser aufgestellt als Firmen, die auf reine Lohnmodelle setzen.
3. Die Steuerdebatte kommt: Die Forderungen nach einer Verschiebung der Steuerlast von Arbeit auf Kapital und KI-generierte Wertschöpfung werden lauter. CFOs sollten die steuerlichen Implikationen einer zunehmend automatisierten Wertschöpfungskette schon heute durchspielen.
4. Infrastruktur als Engpass erkennen: Energie und Rechenkapazität sind die kritischsten Ressourcen der kommenden Jahre. Wer heute in diesem Bereich Verträge und Partnerschaften abschließt, sichert sich einen strategischen Vorteil.