Der EU AI Act verlangt in Artikel 52: Wenn ein KI-System direkt mit Menschen interagiert, muss der Nutzer darüber informiert werden, dass er mit einer KI kommuniziert. Die DSGVO ergänzt: Wenn automatisierte Entscheidungen getroffen werden, die den Nutzer betreffen, muss er darüber informiert werden und hat das Recht auf eine menschliche Überprüfung.
Die Realität: Die große Mehrheit der Unternehmen, die KI-Chatbots im Kundenservice, KI-gestützte Empfehlungssysteme oder automatisierte Entscheidungsprozesse einsetzen, informiert ihre Kunden nicht transparent über den KI-Einsatz. Viele Chatbots geben sich als menschliche Mitarbeiter aus. Viele Empfehlungssysteme verschweigen den algorithmischen Einfluss.
Die ersten Bußgelder werden für 2026 erwartet — und sie könnten heftig ausfallen: Bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes. Die Aufsichtsbehörden haben angekündigt, Transparenzverstöße als Priorität zu behandeln, weil sie leicht nachweisbar sind.
Die pragmatische Lösung ist einfach: Klar kennzeichnen, wenn KI beteiligt ist. Dieser Chat wird von einer KI unterstützt und Dieses Ergebnis wurde von einem Algorithmus berechnet sind simple Hinweise, die Compliance herstellen, ohne den Nutzer zu verschrecken.
Quellen:
- EUR-Lex: AI Act Regulation (EU) 2024/1689
- European Commission: AI Act
📊 Einordnung
Transparenz ist nicht nur eine rechtliche Pflicht, sondern ein Vertrauensgewinn. Studien zeigen: Kunden, die wissen, dass sie mit einer KI interagieren, bewerten die Interaktion nicht schlechter — aber sie bewerten Unverständnis deutlich schlechter, wenn sie erst nachträglich erfahren, dass keine menschliche Person gesprochen hat.
Transparenz ist billiger als Verschleierung — und kostenloser als ein Bußgeld.
🎯 Was bedeutet das konkret?
Audit: Identifizieren Sie alle Touchpoints, an denen KI mit Kunden oder Mitarbeitenden interagiert. Implementieren Sie klare Kennzeichnungen. Und aktualisieren Sie Ihre Datenschutzerklärung, um den KI-Einsatz transparent zu beschreiben — die Aufsichtsbehörden prüfen das.