Darf ein KI-Chatbot Ihnen sagen, ob Ihre Symptome auf eine Lungenentzündung hindeuten? Oder ob Ihr Mietvertrag unwirksam ist? Im Bundesstaat New York soll die Antwort bald lauten: Nein. Ein neuer Gesetzentwurf will KI-Systemen verbieten, medizinische, juristische und andere lizenzpflichtige Beratung zu geben — und macht die Betreiber haftbar, wenn sie es trotzdem tun.
Was das Gesetz vorsieht
Der Senate Bill S7263, eingebracht von Senatorin Kristen Gonzalez, passierte Ende Februar den Technologie-Ausschuss des Senats mit 6 zu 0 Stimmen. Er verbietet KI-Chatbots, „substantive response, information, or advice" zu geben, die gegen Berufsrecht verstößt oder der unerlaubten Ausübung eines lizenzierten Berufs gleichkommt.
Die Liste der betroffenen Berufe ist lang: Medizin, Recht, Zahnmedizin, Pflege, Psychologie, Sozialarbeit, Veterinärmedizin, Physiotherapie, Pharmazie, Optometrie, Ingenieurwesen, Architektur, Geologie und Vermessung. Kurz: Jeder Beruf, für den in New York eine staatliche Lizenz erforderlich ist.
Haftung statt Haftungsausschluss
Das Gesetz geht weiter als ein bloßes Verbot. Es schafft ein privates Klagerecht (private right of action): Wer durch die verbotene Beratung eines Chatbots geschädigt wird, kann den Betreiber auf Schadensersatz und Anwaltskosten verklagen. Gleichzeitig müssen Chatbot-Betreiber Nutzer klar und deutlich darauf hinweisen, dass sie mit einer KI interagieren — aber dieser Hinweis schützt sie ausdrücklich nicht vor Haftung.
Das ist ein entscheidender Punkt: Auch wenn ein Chatbot klipp und klar sagt „Ich bin eine KI", bleibt der Betreiber verantwortlich, wenn das System trotzdem eine medizinische Diagnose stellt oder eine Rechtsberatung gibt. Der übliche Disclaimer genügt nicht.
Warum New York vorangeht
New York ist bereits einer der regulatorisch aktivsten US-Bundesstaaten im Bereich KI. Im vergangenen Jahr trat der RAISE Act in Kraft, der Unternehmen verpflichtet, detaillierte KI-Sicherheitsprotokolle bei den Behörden einzureichen. Die neue Bill ist Teil eines größeren Pakets, das auch den Schutz Minderjähriger vor unsicheren Chatbot-Funktionen sowie neue Regeln für biometrische Daten und synthetische Inhalte umfasst.
Der Hintergrund ist konkret: Anfang 2026 einigten sich Character.AI und Google in mehreren Klagen, die von Eltern eingereicht worden waren, deren minderjährige Kinder nach Interaktionen mit KI-Chatbots Suizid begangen hatten. Gonzalez sagte in einer Pressemitteilung: „Menschen verdienen echte Betreuung von echten Menschen. Sie verdienen Transparenz, Rechenschaftspflicht und die Zusicherung, dass ihre Daten sicher sind."
Die KI-Branche reagiert — mit Geld
New Yorks Kurs bringt den Bundesstaat in Konflikt mit der KI-Industrie und der Bundesregierung. Die Trump-Administration hat sich für eine Begrenzung einzelstaatlicher KI-Regulierung ausgesprochen, doch Albany zeigt sich davon unbeeindruckt.
Die Branche wehrt sich auf anderen Wegen: Ein neues Super PAC namens Leading the Future, finanziert unter anderem von a16z und OpenAI-Präsident Greg Brockman, hat 10 Millionen Dollar bereitgestellt, um den Demokraten-Abgeordneten Alex Bores aus dem Rennen zu drängen — den Autor des RAISE Act, der sich inzwischen um einen Sitz im US-Kongress bewirbt.
Was das Gesetz nicht regelt
Kritiker werden einwenden, dass das Gesetz praktisch schwer durchsetzbar ist. Soll ChatGPT keine Frage mehr zu Rückenschmerzen beantworten dürfen? Die Grenze zwischen „allgemeiner Gesundheitsinformation" und „medizinischer Beratung" ist fließend. Auch dürfte die Frage aufkommen, ob ein solches Verbot nicht den Zugang zu kostenlosen Informationen einschränkt — gerade für Menschen, die sich keinen Arzt oder Anwalt leisten können.
Wenn der Senat zustimmt und ein Parallel-Entwurf (A6545) die Assembly passiert, tritt das Gesetz 90 Tage nach Unterschrift des Gouverneurs in Kraft.
🎯 Was das für die Praxis bedeutet
1. Haftungsrisiko für Chatbot-Betreiber: Wer KI-Systeme betreibt, die Nutzer in den USA erreichen, muss New Yorks Regelung im Blick behalten. Ein Disclaimer allein reicht dort künftig nicht aus, um Klagen abzuwehren.
2. Grauzone Gesundheitsinformation: Die Abgrenzung zwischen allgemeiner Information und „substantive advice" wird zur Schlüsselfrage. Unternehmen sollten ihre Chatbot-Antworten in sensiblen Bereichen jetzt schon prüfen und gegebenenfalls Filter einbauen.
3. Regulatorischer Flickenteppich: Während die Trump-Administration staatliche KI-Gesetze einschränken will, prescht New York vor. Für global agierende KI-Anbieter entsteht ein zunehmend unübersichtliches Regelwerk, vergleichbar mit der DSGVO-Fragmentierung in der EU.