Option
Heim
Nachricht
Chinesische KI -Zensur, die durch durchgesickerte Daten ausgesetzt ist

Chinesische KI -Zensur, die durch durchgesickerte Daten ausgesetzt ist

10. April 2025
65

Chinas Einsatz von KI zur Verbesserung seiner Zensurfunktionen hat ein neues Niveau erreicht, wie eine durchgesickerte Datenbank mit 133.000 Beispielen für inhaltliche Inhalte enthielt, die durch die chinesische Regierung für die Sensibilität gemeldet wurden. Dieses anspruchsvolle Großsprachmodell (LLM) soll automatisch Inhalte in Bezug auf eine breite Palette von Themen erkennen und zensiert, von Armut in ländlichen Gebieten bis hin zu Korruption innerhalb der kommunistischen Partei und sogar subtile politische Satire.

Chinesische Flagge auf Pole hinter Rasierdraht

Dieses Foto, das am 4. Juni 2019 aufgenommen wurde, zeigt die chinesische Flagge hinter Razor Wire in einer Wohngelegenheit in Yengisar südlich von Kashgar, in der westlichen Region Chinas westlicher Xinjiang.Image Credits: Greg Baker / AFP / Getty Images

Laut Xiao Qiang, einem Forscher an der UC Berkeley, der sich auf die chinesische Zensur spezialisiert hat, ist diese Datenbank "eindeutige Beweise", dass die chinesische Regierung oder ihre verbundenen Unternehmen LLMs verwenden, um ihre Repressionsbemühungen zu stärken. Im Gegensatz zu herkömmlichen Methoden, die von menschlichen Moderatoren und Keyword-Filterung abhängen, kann dieser kI-gesteuerte Ansatz die Effizienz und Präzision des staatlich kontrollierten Informationsmanagements erheblich verbessern.

Der Datensatz, der vom Sicherheitsforscher Netaskari auf einer ungesicherten Elasticsearch -Datenbank entdeckt wurde, die auf einem Baidu -Server gehostet wird, enthält die jüngsten Einträge ab Dezember 2024. Es ist unklar, wer genau den Datensatz erstellt hat, aber sein Zweck ist offensichtlich: Um einen LLM zu identifizieren, um in Bezug auf sensible Themen wie Verschmutzung, Lebensmittelsicherheit, finanzielle, lernfabaude und militärische Streitigkeiten, und Lernstritten, Lernstritten und Streitkräfte zu flagten. Die politische Satire, insbesondere wenn sie historische Analogien oder Verweise auf Taiwan beinhaltet, ist ebenfalls ein Ziel mit hoher Priorität.

Ein Ausschnitt aus JSON -Code, der verweist, dass Token und LLMs auftreten. Ein Großteil des Inhalts ist auf Chinesisch.

Bildnachweis: Charles Rollet

Die Schulungsdaten umfassen verschiedene Beispiele für Inhalte, die möglicherweise soziale Unruhen aufregen könnten, wie Beschwerden über korrupte Polizeibeamte, Berichte über ländliche Armut und Nachrichten über die Beamten der ausgewiesenen Kommunistischen Partei. Der Datensatz enthält auch umfangreiche Verweise auf taiwanesische und militärische Themen, wobei das chinesische Wort für Taiwan (台湾) über 15.000 Mal erscheinen.

Die beabsichtigte Verwendung des Datensatzes wird als "öffentliche Meinungsarbeiten" bezeichnet. Ein Begriff, den Michael Caster aus Artikel 19 erklärt, ist typischerweise mit der Cyberspace -Verwaltung Chinas (CAC) verbunden und beinhaltet Zensur- und Propaganda -Bemühungen. Dies entspricht dem Sicht des chinesischen Präsidenten Xi Jinping im Internet als "Front" der öffentlichen Meinungsarbeiten der kommunistischen Partei.

Diese Entwicklung ist Teil eines breiteren Trends autoritärer Regime, die die KI -Technologie für repressive Zwecke einsetzen. OpenAI berichtete kürzlich, dass ein nicht identifizierter Akteur, wahrscheinlich aus China, generative KI zur Überwachung sozialer Medien und zur Weiterleitung gegen Regierungsstellen an die chinesische Regierung verwendete. Die gleiche Technologie wurde auch verwendet, um kritische Kommentare zu einem prominenten chinesischen Dissidenten, Cai Xia, zu generieren.

Während Chinas traditionelle Zensurmethoden auf grundlegenden Algorithmen angewiesen sind, um schwarze Liste zu blockieren, stellt die Verwendung von LLMs einen signifikanten Fortschritt dar. Diese KI -Systeme können selbst subtile Kritik in massivem Maßstab erkennen und sich kontinuierlich verbessern, wenn sie mehr Daten verarbeiten.

"Ich denke, es ist entscheidend, hervorzuheben, wie sich die KI-gesteuerte Zensur weiterentwickelt und die staatliche Kontrolle über den öffentlichen Diskurs noch anspruchsvoller macht, insbesondere zu einer Zeit, in der chinesische KI-Modelle wie Deepseek Kopfwellen machen", sagte Xiao Qiang gegenüber TechCrunch.

Verwandter Artikel
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
Kommentare (35)
0/200
FrankMartínez
FrankMartínez 11. April 2025 00:00:00 GMT

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson
GregoryWilson 11. April 2025 00:00:00 GMT

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez
RoyLopez 11. April 2025 00:00:00 GMT

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis
MichaelDavis 12. April 2025 00:00:00 GMT

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite
CharlesWhite 12. April 2025 00:00:00 GMT

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis
CarlLewis 16. April 2025 00:00:00 GMT

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

Zurück nach oben
OR