Fachkräfte, die regelmäßig KI-Tools nutzen, berichten von einer dreifachen Beschleunigung ihrer Arbeit. So das Ergebnis einer neuen Umfrage des KI-Sicherheitsinstituts METR unter 349 technischen Fachkräften - darunter Software-Entwickler, Forscher und Gründer. Der Haken: Dieselbe Organisation hatte 2025 in einem kontrollierten Experiment das Gegenteil gemessen.

Die Zahlen im Detail

Zwischen Februar und April 2026 befragte METR die Teilnehmer zu zwei Dimensionen: Geschwindigkeit (wie viel schneller sie arbeiten) und Wert (wie viel mehr Nutzen sie stiften). Die Ergebnisse:

  • Geschwindigkeit: Median 3x - die Befragten geben an, dreimal so schnell zu arbeiten wie ohne KI-Unterstützung.
  • Wert-Steigerung: Median 1,4 bis 2x - der Mehrwert der Arbeit steigt um den Faktor 1,4 bis 2.

Interessant ist der retrospektive Verlauf: Im März 2025 lag der selbstberichtete Wert-Faktor noch bei 1,3x. Aktuell schätzen die Befragten ihn auf 2,0x. Für März 2027 prognostizieren sie 2,5x. Die subjektive Produktivitätskurve zeigt also steil nach oben.

Der Widerspruch zur eigenen RCT-Studie

Genau hier wird es spannend - und unbequem. METR selbst hatte Ende 2025 ein randomisiertes kontrolliertes Experiment (RCT) durchgeführt, bei dem erfahrene Entwickler reale Aufgaben mit und ohne KI-Tools bearbeiteten. Das Ergebnis: 19 Prozent Verlangsamung mit KI. Die Entwickler schätzten sich selbst schneller ein, waren es aber messbar nicht.

Die neue Umfrage steht in direktem Kontrast dazu. METR adressiert das offen: Selbstberichte überschätzen Produktivität systematisch. Die Rücklaufquote der Umfrage lag bei nur rund 2 Prozent - wer sich die Mühe macht zu antworten, ist vermutlich überdurchschnittlich zufrieden mit seinen KI-Tools. Etwa 3 Prozent der Antworten mussten wegen logischer Unmöglichkeiten entfernt werden.

Wer profitiert am meisten?

Die Umfrage zeigt deutliche Unterschiede zwischen Nutzergruppen. Höhere Produktivitätsgewinne berichten Befragte, die KI häufiger nutzen, mehr Erfahrung mit den Tools haben oder spezialisierte Werkzeuge wie Claude Code oder Codex einsetzen - also die Profi-Instrumente, nicht die allgemeinen Chatbots.

Ein Detail fällt auf: Die METR-Mitarbeiter selbst geben niedrigere Werte an als andere Befragte. Die Organisation vermutet, dass ihr eigenes Team skeptischer ist, weil es die Grenzen der Benchmarks aus der täglichen Arbeit kennt - und deshalb vorsichtiger einschätzt.

🎯 Was das für die Praxis bedeutet

1. Selbsteinschätzung hinterfragen: Die 3x-Zahl klingt verlockend, aber METR selbst warnt vor der Diskrepanz zwischen Gefühl und Messung. Wer KI-Produktivität nachweisen will, braucht harte Metriken - Durchlaufzeiten, Fehlerquoten, Output-Volumen - statt Bauchgefühl.

2. Spezialisierte Tools bevorzugen: Die höchsten Gewinne berichten Nutzer von Claude Code und Codex, nicht von allgemeinen Chatbots. Wer ernsthaft produktiver werden will, sollte in die spezialisierten Entwickler-Tools investieren statt nur ChatGPT zu nutzen.

3. Training nicht überspringen: Die Daten zeigen: Erfahrung mit KI-Tools korreliert direkt mit berichteter Produktivität. Unternehmen, die KI einführen, ohne ihre Teams systematisch zu schulen, verschenken den größten Teil des Potenzials.

Dieser Artikel enthält eingebettete Inhalte Dritter (z. B. Videos, Social-Media-Beiträge). kiwoche.com berichtet über diese Inhalte, macht sie sich jedoch nicht zu eigen. Die Rechte und die Verantwortung liegen beim jeweiligen Urheber bzw. Plattformbetreiber.

📰 Quellen
@METR_Evals auf X ↗ METR Blog ↗
Teilen: