Wer glaubt, mit einem Pseudonym im Internet anonym zu sein, sollte eine neue Studie der ETH Zürich und Anthropic kennen. Ihr Ergebnis: Handelsübliche KI-Modelle können pseudonyme Forennutzer in wenigen Minuten identifizieren — für 1 bis 4 Dollar pro Profil.

226 von 338 Profilen enttarnt

Im Rahmen der Studie mit dem Titel „Large-scale online deanonymization with LLMs" ließen die Forscher ein KI-System auf 338 Hacker-News-Profile los — eines der beliebtesten Technik-Foren der Welt. Das Ergebnis: 226 Profile wurden korrekt mit echten LinkedIn-Identitäten verknüpft. Das entspricht einer Trefferquote (Recall) von 67 Prozent — bei einer Präzision von 90 Prozent. Von zehn Zuordnungen, die das System traf, waren also neun korrekt.

Der Gesamtaufwand für das Experiment: rund 2.000 Dollar.

Wie die Enttarnung funktioniert

Die KI nutzt keine gehackten Datenbanken und keine Sicherheitslücken. Sie liest schlicht das, was jeder lesen kann — öffentliche Forenpostings. Aus den Texten extrahiert sie sogenannte identitätsrelevante Signale: demografische Hinweise, Schreibstil, beiläufig erwähnte Details (etwa ein Wohnort, eine Universität oder ein Arbeitgeber), thematische Interessen und sprachliche Muster.

Diese Informationen werden dann automatisch mit öffentlich zugänglichen Profilen auf Plattformen wie LinkedIn abgeglichen. Die KI verbindet die Puzzleteile, die ein Mensch theoretisch auch zusammensetzen könnte — nur eben in Minuten statt Wochen, und für wenige Dollar statt tausende.

Nicht mehr als OSINT — aber in Echtzeit

Die Forscher betonen einen wichtigen Punkt: Die KI entdeckt keine geheimen Informationen. Sie automatisiert das, was geschickte Open-Source-Intelligence-Analysten (kurz: OSINT-Spezialisten) manuell tun könnten. Der Unterschied liegt im Tempo und in der Skalierbarkeit. Was bisher Stunden dauerte und Expertenwissen erforderte, schafft jetzt ein Sprachmodell für den Preis eines Kaffees.

Genau das macht die Studie so brisant. Denn die Werkzeuge, die hier eingesetzt wurden, sind kommerziell verfügbar — nicht etwa experimentelle Forschungsprototypen. Jeder mit einem API-Zugang und grundlegenden Programmierkenntnissen könnte ein ähnliches System aufbauen.

Was das für die Online-Privatsphäre bedeutet

Die Annahme, dass ein Pseudonym vor Identifizierung schützt, war schon immer fragil. Aber mit KI-gestützter Textanalyse wird sie endgültig zur Illusion. Die Forscher warnen explizit vor zwei Einsatzszenarien: staatliche Überwachung und hochgradig zielgerichtetes Social Engineering — also maßgeschneiderte Manipulation auf Basis automatisch erstellter Persönlichkeitsprofile.

Besonders in Kombination mit den jüngsten Enthüllungen über die Nutzung von KI-Modellen durch chinesische Behörden zur Dissidenten-Überwachung zeichnet sich ein beunruhigendes Bild ab: KI wird zum Werkzeug, das Anonymität im Netz systematisch untergräbt.

🎯 Was das für die Praxis bedeutet

1. Pseudonyme schützen nicht mehr: Wer beruflich oder privat unter Pseudonym im Internet aktiv ist, sollte davon ausgehen, dass eine automatisierte Zuordnung zur realen Identität grundsätzlich möglich ist — nicht durch Hacking, sondern durch Textanalyse.

2. Unternehmen mit Whistleblower-Kanälen müssen ihre Systeme überprüfen: Anonyme Meldesysteme, die auf Texteingaben basieren, sind potenziell anfällig für KI-gestützte Stilanalyse. Technische Gegenmaßnahmen wie Text-Anonymisierung gewinnen an Bedeutung.

3. Datenschutzbeauftragte sollten die Studie als Anlass nehmen, interne Richtlinien zur Online-Kommunikation zu überprüfen. Mitarbeiter, die in Fachforen aktiv sind, hinterlassen möglicherweise identifizierbare Spuren — auch ohne persönliche Daten preiszugeben.

4. Die Studie unterstreicht die Dringlichkeit einer europäischen Debatte über die Grenzen automatisierter Personenidentifikation. Die DSGVO verbietet zwar die Verarbeitung personenbezogener Daten ohne Rechtsgrundlage — aber ob eine KI-gestützte Stilanalyse öffentlicher Texte darunter fällt, ist juristisch noch ungeklärt.

📰 Quellen
The Decoder ↗ CyberInsider ↗ The Register ↗
Teilen: