Was passiert, wenn die KI-Entwicklung genau so verläuft, wie es die optimistischsten Prognosen vorhersagen – und sich das als Problem herausstellt? Dieser Frage widmet sich ein außergewöhnliches Gedankenexperiment des Finanzanalyse-Newsletters Citrini Research, das seit seiner Veröffentlichung am 22. Februar 2026 viral gegangen ist. Das Papier ist als fiktives Macro Memo aus dem Juni 2028 geschrieben und rekonstruiert rückblickend, wie eine globale Wirtschaftskrise durch den rasanten Erfolg von KI ausgelöst werden könnte.
Ghost GDP: Wenn Produktivität nicht mehr bei den Menschen ankommt
Den Kern des Szenarios bildet ein paradoxer Mechanismus: KI steigert die Produktivität massiv, die Gewinne fließen aber nicht mehr in die reale Wirtschaft. Im Gedankenexperiment wird dies als „Ghost GDP" bezeichnet — wirtschaftliche Leistung, die in den Statistiken auftaucht, aber nie bei den Menschen ankommt. Ein anschauliches Beispiel: Ein Rechenzentrum in North Dakota ersetzt die Arbeit von 10.000 Angestellten. Die Wirtschaftsleistung bleibt gleich — aber Maschinen geben keinen einzigen Cent für Miete, Restaurants oder Kleidung aus.
Laut dem Szenario erreicht der S&P 500 im Oktober 2026 zunächst 8.000 Punkte, bevor ein Abverkauf von 38 Prozent einsetzt. Die Arbeitslosenquote klettert auf 10,2 Prozent. Alles, was bisher als sektorspezifisches Problem galt – Entlassungen in der Software-Branche, Druck auf Beratungshäuser –, kippt in eine systemische Krise.
Die Todesspirale der Wissensarbeiter
Die Autoren beschreiben einen negativen Feedback-Loop ohne natürliche Bremse: KI wird besser und billiger. Unternehmen entlassen Mitarbeiter. Die Ersparnisse werden in mehr KI investiert. KI wird besser und billiger. Entlassene Wissensarbeiter weichen auf schlechter bezahlte Jobs aus, was die Löhne dort ebenfalls drückt. Das World Economic Forum prognostiziert bis 2030 die Verdrängung von 92 Millionen Arbeitsplätzen durch KI – mit einem Nettoverlust von 14 Millionen Stellen.
Im Gedankenexperiment wird eine ehemalige Senior Product Managerin bei Salesforce beschrieben: 180.000 Dollar Jahresgehalt, nach der Entlassung Uber-Fahrerin für 45.000 Dollar. Multipliziert mit Hunderttausenden Betroffenen in jeder Großstadt ergibt sich eine ökonomische Schockwelle, denn die oberen 20 Prozent der Einkommensbezieher sind für rund 65 Prozent der gesamten Konsumausgaben in den USA verantwortlich.
Agenten zerstören die „Bequemlichkeits-Wirtschaft"
Ein besonders faszinierender Teil des Papiers beschreibt, wie KI-Agenten ab 2027 ganze Geschäftsmodelle aushebeln, die auf menschlicher Bequemlichkeit basieren. Billionen Dollar an Unternehmenswert existieren nur, weil Menschen ungeduldig sind, Marken vertrauen statt zu vergleichen, und lieber einen schlechteren Preis akzeptieren als noch drei weitere Anbieter zu prüfen.
Im Szenario verhandeln KI-Agenten Versicherungen jährlich neu, buchen Reisen günstiger als jede Plattform, und umgehen sogar Kreditkartengebühren, indem sie Zahlungen über alternative digitale Zahlungswege abwickeln. Der Lieferdienst DoorDash — das Paradebeispiel für bequeme, aber teure Vermittlung — verliert sein Geschäftsmodell: Ein KI-Agent hat keinen Homescreen mit einer Lieblings-App. Er vergleicht in Sekundenbruchteilen zwanzig Anbieter und wählt den günstigsten.
Vom Kreditmarkt zum Hypotheken-Beben
Das Szenario eskaliert weiter: In den vergangenen Jahren haben Investmentfonds massiv in Software-Unternehmen investiert — oft mit geliehenem Geld und in der Erwartung, dass deren Umsätze weiter wachsen. Doch wenn KI dieselbe Software-Leistung günstiger erbringt, schrumpfen die Umsätze — und die Kredite werden zum Problem. Im Gedankenexperiment verliert ein großes SaaS-Unternehmen seine Kunden so schnell, dass seine Milliarden-Kreditlinie auf knapp die Hälfte ihres Wertes abstürzt. Die Frage, die danach jeden Kreditgeber umtreibt: Wo stecken noch ähnliche Risiken, die bisher niemand auf dem Schirm hatte?
Die letzte Eskalationsstufe betrifft den 13-Billionen-Dollar-Hypothekenmarkt der USA. Nicht riskante Kredite sind betroffen — sondern Darlehen von Top-Verdienern mit bester Bonität, die sich ihr Haus auf Basis eines Gehalts leisten konnten, das es bald nicht mehr gibt. In San Francisco fallen die Immobilienpreise laut Szenario um 11 Prozent. Anders als in der Finanzkrise 2008, als die Kredite von Anfang an schlecht waren, waren sie diesmal bei Abschluss einwandfrei — die Welt hat sich nur danach verändert.
Der Kanarienvogel lebt noch
Das Papier endet mit einem bewussten Bruch der Fiktion: „But you're not reading this in June 2028. You're reading it in February 2026." Die negativen Feedback-Loops haben noch nicht begonnen. Die Autoren betonen, dass einige dieser Szenarien nicht eintreten werden. Doch die zentrale These bleibt: Die Prämie auf menschliche Intelligenz wird schrumpfen, und es ist an der Zeit zu prüfen, wie viel des eigenen Portfolios auf Annahmen aufgebaut ist, die das Jahrzehnt nicht überleben werden.
Microsofts KI-Chef Mustafa Suleyman prognostizierte kürzlich in einem Interview mit der Financial Times, dass die meisten White-Collar-Aufgaben innerhalb von 12 bis 18 Monaten vollständig automatisiert werden könnten. Ob man das für realistisch hält oder nicht: Die Frage, was passiert, wenn es auch nur teilweise eintritt, wird für Investoren und Entscheider zur Pflichtlektüre.
🎯 Was das für die Praxis bedeutet
1. Portfolio-Stresstest durchführen: Prüfen Sie, welche Ihrer Investments und Geschäftsmodelle auf der Annahme stabiler White-Collar-Beschäftigung basieren. Das gilt besonders für SaaS-Beteiligungen, Immobilien in Tech-Hubs und konsumabhängige Sektoren.
2. Zweit- und Drittrundeneffekte einkalkulieren: KI-Disruption endet nicht bei der direkt betroffenen Branche. Wenn Kunden Mitarbeiter abbauen, kündigen sie auch deren Software-Lizenzen, Büroflächen und Dienstleistungsverträge. Die Wertschöpfungskette denken.
3. Nicht auf eine Technologie wetten: Unternehmen, die heute durch KI bedroht werden, werden zu den aggressivsten KI-Adopteuren. Wer ausschließlich auf „KI-Gewinner" setzt, übersieht, dass dieselbe Dynamik auch deren Kunden und damit deren Umsatzbasis zerstören kann.