中国人工智能审查制度被泄漏的数据暴露
2025年04月10日
WillGarcía
8
中国利用AI来增强其审查能力已达到了一个新的水平,正如泄漏的数据库所揭示的那样,其中包含133,000个中国政府标记的内容示例。这种复杂的大型语言模型(LLM)旨在自动检测和审查与广泛主题有关的内容,从农村地区的贫困到共产党内部的腐败,甚至是微妙的政治讽刺。

这张照片于2019年6月4日拍摄,显示了中国在喀什(Kashgar)南部的Yengisar的剃刀电线背后的中国旗帜,位于中国西部新疆地区。图片信用:Greg Baker / AFP / Getty Images
加州大学伯克利分校的一名研究人员Xiao Qiang说,该数据库是“明确的证据”,表明中国政府或其分支机构正在使用LLMS来加强他们的镇压工作。与取决于人类主持人和关键字过滤的传统方法不同,这种AI驱动的方法可以显着提高国家控制信息管理的效率和精度。
安全研究人员Netaskari在BAIDU服务器上托管的无安全弹性搜索数据库中发现的数据集包括2024年12月的最新条目。目前尚不清楚谁确切地创建了数据集,但其目的是显而易见的:训练LLM以识别和标记与敏感的主题相关的,例如污染,食品安全,粮食安全,财务欺诈,工具,交通事故,派遣人员和士兵,派遣人员和士兵,派遣人员和士兵,派遣人员和士兵,以及犯罪和士兵。政治讽刺,尤其是当它涉及历史类比或对台湾的参考时,也是一个高优先的目标。

图片来源:Charles Rollet
培训数据包括可能引起社会动荡的各种内容,例如有关腐败警察的投诉,有关农村贫困的报告以及有关被驱逐的共产党官员的新闻。该数据集还包含对台湾和与军事有关的主题的广泛参考,中文对台湾(台湾)的话出现了15,000多次。
该数据集的预期用途被描述为“公众舆论工作”,第19条解释的迈克尔·卡斯特(Michael Caster)通常与中国网络空间管理(CAC)有关,涉及审查和宣传工作。这与中国总统习近平对互联网的看法相吻合,这是共产党公众舆论工作的“前线”。
这种发展是采用AI技术用于压制目的的更广泛趋势的一部分。 Openai最近报道说,一位可能来自中国的身份不明的演员使用生成的AI来监视社交媒体和向中国政府的反政府哨所。也使用了相同的技术来对中国持不同政见者凯西(Cai Xia)产生批判性评论。
尽管中国的传统审查方法依靠基本算法来阻止黑名单的术语,但LLMS的使用代表了一个重大进步。这些AI系统甚至可以在大规模上检测到微妙的批评,并在处理更多数据时不断改进。
Xiao Qiang告诉TechCrunch:“我认为重要的是要强调AI驱动的审查制度如何发展,这使国家对公共话语的控制更加复杂,尤其是在诸如DeepSeek之类的中国AI模型正在制作媒体上的时候。”
相关文章
分析揭示了AI对中国的反应因语言而有所不同
探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET
安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Schmidt)反对阿吉·曼哈顿(Agi Manhattan)项目
在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Schmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
评论 (30)
0/200
FrankMartínez
2025年04月10日 18:58:08
This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.
0
GregoryWilson
2025年04月11日 15:36:22
このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。
0
RoyLopez
2025年04月11日 13:45:57
이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.
0
MichaelDavis
2025年04月11日 20:03:39
Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.
0
CharlesWhite
2025年04月12日 04:05:41
Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.
0
CarlLewis
2025年04月16日 07:23:03
The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔
0






中国利用AI来增强其审查能力已达到了一个新的水平,正如泄漏的数据库所揭示的那样,其中包含133,000个中国政府标记的内容示例。这种复杂的大型语言模型(LLM)旨在自动检测和审查与广泛主题有关的内容,从农村地区的贫困到共产党内部的腐败,甚至是微妙的政治讽刺。
加州大学伯克利分校的一名研究人员Xiao Qiang说,该数据库是“明确的证据”,表明中国政府或其分支机构正在使用LLMS来加强他们的镇压工作。与取决于人类主持人和关键字过滤的传统方法不同,这种AI驱动的方法可以显着提高国家控制信息管理的效率和精度。
安全研究人员Netaskari在BAIDU服务器上托管的无安全弹性搜索数据库中发现的数据集包括2024年12月的最新条目。目前尚不清楚谁确切地创建了数据集,但其目的是显而易见的:训练LLM以识别和标记与敏感的主题相关的,例如污染,食品安全,粮食安全,财务欺诈,工具,交通事故,派遣人员和士兵,派遣人员和士兵,派遣人员和士兵,派遣人员和士兵,以及犯罪和士兵。政治讽刺,尤其是当它涉及历史类比或对台湾的参考时,也是一个高优先的目标。
培训数据包括可能引起社会动荡的各种内容,例如有关腐败警察的投诉,有关农村贫困的报告以及有关被驱逐的共产党官员的新闻。该数据集还包含对台湾和与军事有关的主题的广泛参考,中文对台湾(台湾)的话出现了15,000多次。
该数据集的预期用途被描述为“公众舆论工作”,第19条解释的迈克尔·卡斯特(Michael Caster)通常与中国网络空间管理(CAC)有关,涉及审查和宣传工作。这与中国总统习近平对互联网的看法相吻合,这是共产党公众舆论工作的“前线”。
这种发展是采用AI技术用于压制目的的更广泛趋势的一部分。 Openai最近报道说,一位可能来自中国的身份不明的演员使用生成的AI来监视社交媒体和向中国政府的反政府哨所。也使用了相同的技术来对中国持不同政见者凯西(Cai Xia)产生批判性评论。
尽管中国的传统审查方法依靠基本算法来阻止黑名单的术语,但LLMS的使用代表了一个重大进步。这些AI系统甚至可以在大规模上检测到微妙的批评,并在处理更多数据时不断改进。
Xiao Qiang告诉TechCrunch:“我认为重要的是要强调AI驱动的审查制度如何发展,这使国家对公共话语的控制更加复杂,尤其是在诸如DeepSeek之类的中国AI模型正在制作媒体上的时候。”




This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.




このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。




이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.




Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.




Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.




The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔












