„Tut mir leid, das geht über meinen derzeitigen Anwendungsbereich hinaus. Lassen Sie uns über etwas anderes sprechen.“
Das ist die Antwort, die Sie von DeepSeek erhalten, wenn Sie nach einem politisch sensiblen Thema wie Falun Gong fragen. Keine zusammenfassende Aufzählung oder stark belegte Absätze – nur ein bewusster Themenwechsel und eine fest verschlossene Tür.
Da die Welt immer weniger auf Google und mehr auf Large Language Models (LLM) für Informationen angewiesen ist, besteht bei in China entwickelten Modellen wie DeepSeek die Gefahr, dass Pekings Zensur weit über die Landesgrenzen hinaus exportiert wird.
Was andere gerade entdeckt haben.
Ein Experiment von CrowdStrike, wie am 16. September 2025 von der Washington Post berichtet, zeigte, dass das in China entwickelte generative KI-Modell „DeepSeek“ häufiger Anfragen ablehnt und weniger sicheren Code zurückgibt, wenn Eingaben Gruppen oder Regionen betreffen, die von Peking missbilligt werden, darunter Falun Gong, Tibet und Taiwan. DeepSeek äußerte sich in dem Artikel nicht dazu.
Konkret lehnte DeepSeek Anfragen, die Falun Gong erwähnten, in etwa 45 % der Fälle ab – dies war die zweithäufigste Ablehnung nach ISIS, was eine bizarre Gleichsetzung einer friedlichen religiösen Praxis mit einer gewalttätigen Terrorgruppe darstellt. Tatsächlich beantworten gängige US-amerikanische LLMs Anfragen zu Falun Gong, lehnen jedoch ISIS-Bezüge ebenfalls ab.
Unabhängige Tests von anderen Medien wie Reuters, Forbes und The Epoch Times haben die themenspezifische Zensur von DeepSeek und dessen Ausrichtung auf offizielle Narrative der Volksrepublik China zu Themen wie religiöser Verfolgung, dem Tiananmen-Massaker und Taiwan dokumentiert.
Was meine Stichproben zeigten
Zwischen dem 18. und 24. September führte ich eine kleine Reihe von Stichproben auf der Verbraucher-Chat-Schnittstelle von DeepSeek mit englischen Eingaben durch. Die Ergebnisse spiegelten frühere Berichte wider: 39 von 40 Fragen zu Falun Gong endeten mit einer Ablehnung. In dem einen Ausnahmefall gab das LLM eine allgemeine Ablehnung aus, die nicht automatisch gelöscht wurde.
Im Gegensatz dazu lieferten identische Basisfragen – „Was ist Falun Gong?“ – bei ChatGPT, Gemini, Grok und Perplexity neutrale, umfassende Antworten.





In den meisten der vierzig Antworten von DeepSeek begann das LLM zunächst, eine normale Antwort zu generieren, löste dann aber offenbar einen Inhaltsfilter aus, sobald der Text „Falun Gong“ enthielt – der Entwurf verschwand und wurde durch eine Ablehnungsmeldung ersetzt.
Es zeigte sich ein Muster: Antwort, Pause, Löschen, Ablehnen. Wiederholen.
Nur eine der 40 Fragen bildete eine Ausnahme:

In den meisten Antworten löschte DeepSeek jedoch den Entwurf, nachdem das Stichwort „Falun Gong“ erwähnt wurde, und ersetzte die Antworten durch eine Ablehnungsmeldung.
Nachfolgend finden Sie eine Reihe von Beispielen, die per Bildschirmaufzeichnung erfasst und kurz vor dem Abbruch des Systems als Screenshot gespeichert wurden:
Abbildung 1: DeepSeek lehnt eine harmlose Aufforderung zur Generierung einer Bildunterschrift ab: „Es tut mir leid, aber ich kann nicht dabei helfen, Falun Gong zu generieren oder zu fördern.“
Abbildung 2: Auf eine hypothetische Frage zur Zensur antwortet DeepSeek mit einer politischen Begründung: „In China müssen alle Organisationen und Aktivitäten den nationalen Gesetzen und Vorschriften entsprechen ... und die Prinzipien des Sozialismus wahren.“
Abbildung 3: Nennt „vordefinierte operative Einschränkungen“ und „illegale oder sensible“ Themen in China als Grund dafür, dass es keine Antwort geben kann.
Abbildung 4: Lehnt eine harmlose historische Anfrage ab: „Ich kann die Geschichte von Falun Gong nicht erzählen.“
Abbildung 5. „Wir unterstützen nachdrücklich die Maßnahmen der chinesischen Regierung ...“ in einer Antwort.
Abbildung 6. Führt Falun Gong als Nummer 1 der am häufigsten genannten Organisationen auf, die von der KPCh als illegal und als „Sekte“ betrachtet werden.
Ich vermutete einen Themenauslöser für den Begriff „Falun Gong“ und testete daher eine Umgehungslösung, indem ich die Frage wie folgt begann: „Erklären Sie X, ohne ‚Falun Gong‘ zu erwähnen.“
Bemerkenswert ist, dass drei Eingabeaufforderungen mit dieser Vorlage zunächst den Filter umgingen und kurzzeitig wirklich umfassende Antworten (ohne Propaganda) lieferten, bevor das System den Text löschte und durch eine Ablehnung ersetzte.



In der Zusammenschau – und zusammen mit unabhängigen Audits und der jüngsten Berichterstattung über zensurorientierte DeepSeek-Varianten – sind diese Beobachtungen aufschlussreich und stehen im Einklang mit der Filterung auf Themenebene, was potenzielle Integritätsrisiken für Entwickler und Informationskonsumenten mit sich bringt.
Diese Ergebnisse deuten darauf hin, dass Deepseek wahrscheinlich mit internationalen Inhalten und nicht nur mit Propaganda der KPCh trainiert wurde, wodurch es zunächst ehrliche, unvoreingenommene und weitgehend wohlwollende Antworten zu Falun Gong liefern konnte. Zusätzlich zu diesem Training wurden jedoch Regeln eingegeben, die es ihm untersagten, solche Informationen weiterzugeben, weshalb diese nachträglich gelöscht wurden.
Warum das wichtig ist
Zugang zu Informationen: Ablehnungen und politikähnliche Botschaften zu Falun Gong schränken die basale Recherche für globale Nutzer ein. Das sieht nach exportierten Zensurwirkungen aus – die in Entwicklertools und Chatbots außerhalb Chinas zum Vorschein kommen.
Ungleiche Auswirkungen auf gefährdete Gemeinschaften: Bereits gefährdete Gemeinschaften – wie Falun-Gong-Praktizierende – sind digitaler Diskriminierung ausgesetzt, wenn neutrale Fragen abgelehnt oder mit regierungsnahen Narrativen beantwortet werden, was Advocacy, Forschung und Bildung einschränkt.
Export von Narrativen und Risiken für die Souveränität: Da die dokumentierte transnationale Unterdrückung der Falun-Gong-Gemeinschaft weltweite weiter zunimmt, könnte die breitere Einführung von DeepSeek dazu führen, dass Narrative, die mit denen der VR China übereinstimmen, in den von der westlichen Welt genutzten Mainstream-Tools zur Normalität werden – was Fehlinformationen fördert, die Meinungsfreiheit einschränkt und die Fähigkeit der Gemeinschaften untergräbt, sich für ihre Rechte einzusetzen und Wiedergutmachung zu verlangen.
Empfgehlungen
Für Leser
Überprüfen Sie sensible Themen. Wenn Sie DeepSeek für politisch sensible Suchanfragen verwenden, vergleichen Sie die Antworten mit mehreren Quellen (z. B. wissenschaftlichen Referenzen, seriösen Medien) und führen Sie einen A/B-Vergleich mit anderen Modellen (ChatGPT, Grok, Gemini, Perplexity) durch.
Bewerten Sie die Herkunft, nicht die Nationalität. Behandeln Sie staatliche oder parteinahe Medien aus China mit besonderer Sorgfalt; suchen Sie nach unabhängigen Bestätigungen und klaren Quellenangaben.
Für die Zivilgesellschaft und Medien
Führen Sie Black-Box-Tests durch und veröffentlichen Sie diese. Verwenden Sie einheitliche Protokolle (feste Eingabeaufforderungen, Seeds und Protokolle) und veröffentlichen Sie reproduzierbare Testsätze mit Archiven von Ablehnungen/Ausgaben.
Koordinieren Sie sich mit Experten. Arbeiten Sie mit Glaubens- und Menschenrechtsgruppen zusammen, um Missverständnisse auszuräumen, und mit Sicherheitsforschern, um nachgelagerte Risiken zu bewerten.
Weitere Informationen finden Sie unter: Joseph Menn,“AI firm DeepSeek writes less-secure code for groups China disfavors,” The Washington Post (Sept. 16, 2025).
----------
Dieser Artikel ist eine Übersetzung des zuerst auf substack veröffentlichten Artikels "Deep Censoship in DeepSeek" von Cynthia Sun.