208 Stimmen dafür, 108 dagegen, 16 Enthaltungen — nach zwei Wochen Abstimmung steht fest: Die deutschsprachige Wikipedia begrenzt den Einsatz generativer KI. Die Regeln, die am 15. Februar 2026 in Kraft traten, gehen weit über eine bloße Empfehlung hinaus. Sie schreiben verbindlich fest, was in Artikeln, auf Diskussionsseiten und in sämtlichen Projektbereichen künftig untersagt ist — und welche Ausnahmen gelten.
Das geht aus einem Blogbeitrag von Wikimedia Deutschland hervor, der die Hintergründe und Konsequenzen des Meinungsbildes zusammenfasst.
Warum die Community abgestimmt hat
Wikipedias Grundprinzipien — Nachprüfbarkeit, Neutralität und Belegpflicht — vertragen sich schlecht mit der Funktionsweise großer Sprachmodelle. Generative KI formuliert Texte nicht faktenbasiert, sondern auf Grundlage von Wahrscheinlichkeit und Plausibilität. Wenn solche Texte ungeprüft in Artikel einfließen, fehlen verlässliche Quellenangaben, enzyklopädische Sprache — und damit genau das, was Wikipedia von anderen Plattformen unterscheidet.
Die Abstimmung lief vom 1. bis zum 15. Februar 2026. Teilnahmeberechtigt war, wer seit mindestens zwei Monaten aktiv ist, mindestens 200 Bearbeitungen aufweist und davon 50 Artikelbearbeitungen in den letzten zwölf Monaten vorgenommen hat. Bei einer erforderlichen einfachen Mehrheit stimmten knapp zwei Drittel für die neuen Regelungen.
Was konkret verboten ist
Der Beschluss ist differenziert, aber in der Kernaussage eindeutig:
- LLM-generierte Texte in Artikeln: Texte, die mit Modellen wie ChatGPT erzeugt oder bearbeitet wurden, dürfen nicht eingestellt werden. Von allen Mitwirkenden wird erwartet, ihre enzyklopädischen Texte selbst zu verfassen
- Automatisierte KI-Edits: Tools, die Artikeländerungen KI-gestützt und ohne menschliche Prüfung vornehmen, sind unzulässig
- KI-generierte Belege: Erkennbar von LLMs erstellte Texte auf externen Websites gelten nicht als geeignete Quellen für Wikipedia-Artikel
- Projektweite Geltung: Die Regeln betreffen nicht nur Artikel, sondern auch Diskussionsseiten und andere Projektbereiche
- Sanktionen: Wer wiederholt LLM-generierte Texte einstellt, kann unbeschränkt gesperrt werden — allerdings nur, wenn die Beweislage klar ist
Wo KI weiterhin erlaubt bleibt
Trotz des restriktiven Rahmens gibt es durchdachte Ausnahmen. Maschinelle Übersetzungen aus anderen Sprachversionen bleiben zulässig, wenn Übersetzungen und Belege sorgfältig auf inhaltliche Korrektheit geprüft werden. Fehlererkennung durch KI-Tools ist erlaubt, sofern jede Änderung menschlich geprüft wird — also etwa Hinweise auf Lücken, Widersprüche oder Rechtschreibfehler. Die eigentliche inhaltliche Korrektur muss menschlich erfolgen.
Auch Recherche mit KI bleibt möglich, solange die gewonnenen Informationen eigenständig geprüft und regelkonform belegt werden. Und KI-generierte oder bearbeitete Bilder dürfen in Ausnahmefällen nach Diskussion und Einzelfall-Konsens eingesetzt werden — aber nie als Ersatz für echte Aufnahmen.
Die offenen Fragen: Erkennung und Aufwand
Die Verabschiedung der Regeln war der einfache Teil. Die Umsetzung wird schwieriger. Wie Wikimedia Deutschland selbst einräumt, sind zentrale Fragen noch offen:
- Wie lassen sich KI-generierte Texte überhaupt zuverlässig erkennen?
- Wie kann der zusätzliche Aufwand für die ehrenamtlich Mitarbeitenden gering gehalten werden?
- Wie wird mit Texten umgegangen, die zwar mit KI erstellt wurden, aber inhaltlich korrekt und regelkonform sind?
- Wie laufen Lösch- oder Behaltens-Diskussionen bei Verdachtsfällen ab?
Einige Ehrenamtliche haben bereits erste Methoden zur Erkennung von KI-Texten entwickelt. Im März findet ein dreitägiges Treffen in Berlin statt, bei dem sich Teilnehmende gezielt mit diesen Umsetzungsfragen beschäftigen werden.
Ein deutscher Alleingang — aber kein willkürlicher
Die englischsprachige Wikipedia und die Wikimedia Foundation selbst haben bislang keinen vergleichbaren Beschluss gefasst. Das macht die deutschsprachige Community zum Vorreiter. Allerdings kein planloser: Die Regeln formulieren eine abgestufte Linie zwischen Verbot und pragmatischer Nutzung, die dem Grundprinzip folgt, dass die Verantwortung immer bei den menschlichen Autoren liegen muss.
Der Beschluss reiht sich in ein Muster: Der deutschsprachige Raum geht bei Datenschutz (DSGVO) und KI-Regulierung (EU AI Act) regelmäßig voran. Das Wikipedia-Meinungsbild ist die logische Fortsetzung dieses Ansatzes — diesmal nicht von Regierungen, sondern von einer Freiwilligen-Community getragen.
🎯 Was das für die Praxis bedeutet
1. Die Grenzlinie ist klar: KI als Werkzeug (Recherche, Übersetzung, Fehlererkennung) ist akzeptabel — KI als Autor nicht. Wer KI-gestützte Content-Prozesse einsetzt, sollte diese Unterscheidung übernehmen.
2. Die Durchsetzung bleibt die Achillesferse: KI-Detektionstools liefern keine verlässlichen Ergebnisse. Organisationen, die ähnliche Regeln einführen, sollten sich auf Prozesse und Selbstverpflichtung stützen statt auf technische Erkennung.
3. Das Signal ist größer als die Regel: Wenn eine der erfolgreichsten Freiwilligen-Wissensplattformen der Welt sagt, dass menschliche Urheberschaft nicht verhandelbar ist, wird das in Bildung, Wissenschaft und Verlagswesen Nachahmer finden.