Chinesische KI -Zensur, die durch durchgesickerte Daten ausgesetzt ist
Chinas Einsatz von KI zur Verbesserung seiner Zensurfähigkeiten hat ein neues Niveau erreicht, wie eine durchgesickerte Datenbank mit 133.000 Beispielen von Inhalten zeigt, die von der chinesischen Regierung als sensibel eingestuft wurden. Dieses ausgeklügelte große Sprachmodell (LLM) ist darauf ausgelegt, Inhalte zu einer Vielzahl von Themen automatisch zu erkennen und zu zensieren, von Armut in ländlichen Gebieten über Korruption innerhalb der Kommunistischen Partei bis hin zu subtiler politischer Satire.

Dieses Foto, aufgenommen am 4. Juni 2019, zeigt die chinesische Flagge hinter Stacheldraht in einem Wohnkomplex in Yengisar, südlich von Kashgar, in Chinas westlicher Region Xinjiang. Bildnachweis: Greg Baker / AFP / Getty Images Laut Xiao Qiang, einem Forscher an der UC Berkeley, der sich auf chinesische Zensur spezialisiert hat, ist diese Datenbank ein „klarer Beweis“ dafür, dass die chinesische Regierung oder ihre Partner LLMs nutzen, um ihre Repressionsbemühungen zu verstärken. Im Gegensatz zu traditionellen Methoden, die auf menschliche Moderatoren und Schlüsselwortfilter angewiesen sind, kann dieser KI-gestützte Ansatz die Effizienz und Präzision der staatlich kontrollierten Informationsverwaltung erheblich steigern.
Das Datenset, das vom Sicherheitsforscher NetAskari auf einer ungesicherten Elasticsearch-Datenbank entdeckt wurde, die auf einem Baidu-Server gehostet wird, enthält aktuelle Einträge vom Dezember 2024. Es ist unklar, wer genau das Datenset erstellt hat, aber sein Zweck ist offensichtlich: ein LLM zu trainieren, um Inhalte zu sensiblen Themen wie Umweltverschmutzung, Lebensmittelsicherheit, Finanzbetrug, Arbeitskonflikten und militärischen Angelegenheiten zu identifizieren und zu kennzeichnen. Politische Satire, insbesondere wenn sie historische Analogien oder Bezüge zu Taiwan enthält, ist ebenfalls ein vorrangiges Ziel.

Bildnachweis: Charles Rollet Die Trainingsdaten umfassen verschiedene Beispiele für Inhalte, die potenziell soziale Unruhen auslösen könnten, wie Beschwerden über korrupte Polizeibeamte, Berichte über Armut in ländlichen Gebieten und Nachrichten über ausgeschlossene Funktionäre der Kommunistischen Partei. Das Datenset enthält auch umfangreiche Bezüge zu Taiwan und militärischen Themen, wobei das chinesische Wort für Taiwan (台湾) über 15.000 Mal vorkommt.
Die beabsichtigte Verwendung des Datensets wird als „Arbeit an der öffentlichen Meinung“ beschrieben, ein Begriff, den Michael Caster von Article 19 erklärt, der typischerweise mit der Cyberspace Administration of China (CAC) in Verbindung gebracht wird und Zensur- sowie Propaganda-Bemühungen umfasst. Dies steht im Einklang mit der Sichtweise des chinesischen Präsidenten Xi Jinping, der das Internet als die „Frontlinie“ der Arbeit der Kommunistischen Partei an der öffentlichen Meinung betrachtet.
Diese Entwicklung ist Teil eines breiteren Trends, bei dem autoritäre Regime KI-Technologie für repressive Zwecke einsetzen. OpenAI berichtete kürzlich, dass ein unbekannter Akteur, vermutlich aus China, generative KI nutzte, um soziale Medien zu überwachen und regierungskritische Beiträge an die chinesische Regierung weiterzuleiten. Dieselbe Technologie wurde auch verwendet, um kritische Kommentare über die prominente chinesische Dissidentin Cai Xia zu generieren.
Während Chinas traditionelle Zensurmethoden auf einfache Algorithmen angewiesen sind, um gesperrte Begriffe zu blockieren, stellt der Einsatz von LLMs einen bedeutenden Fortschritt dar. Diese KI-Systeme können selbst subtile Kritik in großem Maßstab erkennen und sich kontinuierlich verbessern, während sie mehr Daten verarbeiten.
„Ich denke, es ist entscheidend, hervorzuheben, wie sich die KI-gestützte Zensur weiterentwickelt und die staatliche Kontrolle über den öffentlichen Diskurs noch ausgefeilter macht, insbesondere zu einer Zeit, in der chinesische KI-Modelle wie DeepSeek Wellen schlagen“, sagte Xiao Qiang gegenüber TechCrunch.
Verwandter Artikel
Alibaba enthüllt Wan2.1-VACE: Open-Source-KI-Videolösung
Alibaba hat Wan2.1-VACE vorgestellt, ein Open-Source-KI-Modell, das die Prozesse der Videoproduktion und -bearbeitung revolutionieren soll.VACE ist eine zentrale Komponente der Wan2.1-Video-KI-Modellf
Huawei-CEO Ren Zhengfei über Chinas KI-Ambitionen und Resilienzstrategie
Huawei-CEO Ren Zhengfei teilt offene Einblicke in Chinas KI-Landschaft und die Herausforderungen seines Unternehmens.„Ich habe nicht darüber nachgedacht“, sagt Ren in einem Q&A der People’s Daily. „Zu
Die Analyse zeigt, dass die Antworten von AI auf China je nach Sprache variieren
Erforschung der KI-Zensur: Ein Sprachanalyse-No-Geheimnis, das KI-Modelle aus chinesischen Labors wie Deepseek, strengen Zensurregeln unterliegen. Eine Verordnung 2023 aus Chinas regierender Partei verbietet diese Modelle ausdrücklich, Inhalte zu erzeugen, die die nationale Einheit oder so untergraben könnten
Kommentare (37)
0/200
CharlesGonzalez
1. August 2025 15:47:34 MESZ
This leak is wild! 133,000 flagged posts show how deep China's AI censorship goes. It's like a digital Big Brother on steroids. 😳 Makes you wonder how much we're not seeing online.
0
ElijahWalker
22. Juli 2025 09:35:51 MESZ
This leak is wild! 133,000 flagged posts? That’s a scary peek into how AI’s being used to control speech in China. Makes you wonder how much is being filtered without us knowing. 😳
0
MichaelDavis
21. April 2025 10:06:03 MESZ
Essa ferramenta é reveladora! Mostra como a censura por AI na China é profunda. O vazamento do banco de dados é um pouco assustador, mas é importante saber o que está acontecendo nos bastidores. Definitivamente, algo que todos interessados em liberdade na internet devem conhecer. Fique de olho nisso! 👀
0
SebastianAnderson
20. April 2025 00:25:56 MESZ
Los datos filtrados sobre la censura de IA en China son escalofriantes. Es aterrador pensar en cómo se está utilizando la IA para controlar la información. Necesitamos más transparencia y menos censura, ¿no crees? 🤔
0
RoyYoung
19. April 2025 18:38:42 MESZ
中国的AI审查越来越失控了!😱 泄露了133,000个被标记内容的例子,显示出这有多深入。想到AI在自动审查东西,真是可怕。我们需要更多的透明度和更少的控制,对吧?🚫
0
EdwardTaylor
19. April 2025 17:12:20 MESZ
このツールは本当に驚きですね!中国のAIによる検閲がどれだけ深いかがよく分かります。データベースの漏洩はちょっと怖いですが、裏側で何が起こっているかを知ることは重要です。インターネットの自由に興味がある人は必見ですよ!👀
0
Chinas Einsatz von KI zur Verbesserung seiner Zensurfähigkeiten hat ein neues Niveau erreicht, wie eine durchgesickerte Datenbank mit 133.000 Beispielen von Inhalten zeigt, die von der chinesischen Regierung als sensibel eingestuft wurden. Dieses ausgeklügelte große Sprachmodell (LLM) ist darauf ausgelegt, Inhalte zu einer Vielzahl von Themen automatisch zu erkennen und zu zensieren, von Armut in ländlichen Gebieten über Korruption innerhalb der Kommunistischen Partei bis hin zu subtiler politischer Satire.
Laut Xiao Qiang, einem Forscher an der UC Berkeley, der sich auf chinesische Zensur spezialisiert hat, ist diese Datenbank ein „klarer Beweis“ dafür, dass die chinesische Regierung oder ihre Partner LLMs nutzen, um ihre Repressionsbemühungen zu verstärken. Im Gegensatz zu traditionellen Methoden, die auf menschliche Moderatoren und Schlüsselwortfilter angewiesen sind, kann dieser KI-gestützte Ansatz die Effizienz und Präzision der staatlich kontrollierten Informationsverwaltung erheblich steigern.
Das Datenset, das vom Sicherheitsforscher NetAskari auf einer ungesicherten Elasticsearch-Datenbank entdeckt wurde, die auf einem Baidu-Server gehostet wird, enthält aktuelle Einträge vom Dezember 2024. Es ist unklar, wer genau das Datenset erstellt hat, aber sein Zweck ist offensichtlich: ein LLM zu trainieren, um Inhalte zu sensiblen Themen wie Umweltverschmutzung, Lebensmittelsicherheit, Finanzbetrug, Arbeitskonflikten und militärischen Angelegenheiten zu identifizieren und zu kennzeichnen. Politische Satire, insbesondere wenn sie historische Analogien oder Bezüge zu Taiwan enthält, ist ebenfalls ein vorrangiges Ziel.
Die Trainingsdaten umfassen verschiedene Beispiele für Inhalte, die potenziell soziale Unruhen auslösen könnten, wie Beschwerden über korrupte Polizeibeamte, Berichte über Armut in ländlichen Gebieten und Nachrichten über ausgeschlossene Funktionäre der Kommunistischen Partei. Das Datenset enthält auch umfangreiche Bezüge zu Taiwan und militärischen Themen, wobei das chinesische Wort für Taiwan (台湾) über 15.000 Mal vorkommt.
Die beabsichtigte Verwendung des Datensets wird als „Arbeit an der öffentlichen Meinung“ beschrieben, ein Begriff, den Michael Caster von Article 19 erklärt, der typischerweise mit der Cyberspace Administration of China (CAC) in Verbindung gebracht wird und Zensur- sowie Propaganda-Bemühungen umfasst. Dies steht im Einklang mit der Sichtweise des chinesischen Präsidenten Xi Jinping, der das Internet als die „Frontlinie“ der Arbeit der Kommunistischen Partei an der öffentlichen Meinung betrachtet.
Diese Entwicklung ist Teil eines breiteren Trends, bei dem autoritäre Regime KI-Technologie für repressive Zwecke einsetzen. OpenAI berichtete kürzlich, dass ein unbekannter Akteur, vermutlich aus China, generative KI nutzte, um soziale Medien zu überwachen und regierungskritische Beiträge an die chinesische Regierung weiterzuleiten. Dieselbe Technologie wurde auch verwendet, um kritische Kommentare über die prominente chinesische Dissidentin Cai Xia zu generieren.
Während Chinas traditionelle Zensurmethoden auf einfache Algorithmen angewiesen sind, um gesperrte Begriffe zu blockieren, stellt der Einsatz von LLMs einen bedeutenden Fortschritt dar. Diese KI-Systeme können selbst subtile Kritik in großem Maßstab erkennen und sich kontinuierlich verbessern, während sie mehr Daten verarbeiten.
„Ich denke, es ist entscheidend, hervorzuheben, wie sich die KI-gestützte Zensur weiterentwickelt und die staatliche Kontrolle über den öffentlichen Diskurs noch ausgefeilter macht, insbesondere zu einer Zeit, in der chinesische KI-Modelle wie DeepSeek Wellen schlagen“, sagte Xiao Qiang gegenüber TechCrunch.



This leak is wild! 133,000 flagged posts show how deep China's AI censorship goes. It's like a digital Big Brother on steroids. 😳 Makes you wonder how much we're not seeing online.




This leak is wild! 133,000 flagged posts? That’s a scary peek into how AI’s being used to control speech in China. Makes you wonder how much is being filtered without us knowing. 😳




Essa ferramenta é reveladora! Mostra como a censura por AI na China é profunda. O vazamento do banco de dados é um pouco assustador, mas é importante saber o que está acontecendo nos bastidores. Definitivamente, algo que todos interessados em liberdade na internet devem conhecer. Fique de olho nisso! 👀




Los datos filtrados sobre la censura de IA en China son escalofriantes. Es aterrador pensar en cómo se está utilizando la IA para controlar la información. Necesitamos más transparencia y menos censura, ¿no crees? 🤔




中国的AI审查越来越失控了!😱 泄露了133,000个被标记内容的例子,显示出这有多深入。想到AI在自动审查东西,真是可怕。我们需要更多的透明度和更少的控制,对吧?🚫




このツールは本当に驚きですね!中国のAIによる検閲がどれだけ深いかがよく分かります。データベースの漏洩はちょっと怖いですが、裏側で何が起こっているかを知ることは重要です。インターネットの自由に興味がある人は必見ですよ!👀












