首頁 消息 中國人工智能審查制度被洩漏的數據暴露

中國人工智能審查制度被洩漏的數據暴露

2025年04月10日
WillGarcía
8

中國利用AI來增強其審查能力已達到了一個新的水平,正如洩漏的數據庫所揭示的那樣,其中包含133,000個中國政府標記的內容示例。這種複雜的大型語言模型(LLM)旨在自動檢測和審查與廣泛主題有關的內容,從農村地區的貧困到共產黨內部的腐敗,甚至是微妙的政治諷刺。

剃須刀後面的桿子上的中國國旗

這張照片於2019年6月4日拍攝,顯示了中國在喀什(Kashgar)南部的Yengisar的剃刀電線背後的中國旗幟,位於中國西部新疆地區。圖片信用:Greg Baker / AFP / Getty Images

加州大學伯克利分校的一名研究人員Xiao Qiang說,該數據庫是“明確的證據”,表明中國政府或其分支機構正在使用LLMS來加強他們的鎮壓工作。與取決於人類主持人和關鍵字過濾的傳統方法不同,這種AI驅動的方法可以顯著提高國家控制信息管理的效率和精度。

安全研究人員Netaskari在BAIDU服務器上託管的無安全彈性搜索數據庫中發現的數據集包括2024年12月的最新條目。目前尚不清楚誰確切地創建了數據集,但其目的是顯而易見的:訓練LLM以識別和標記與敏感的主題相關的,例如污染,食品安全,糧食安全,財務欺詐,工具,交通事故,派遣人員和士兵,派遣人員和士兵,派遣人員和士兵,派遣人員和士兵,以及犯罪和士兵。政治諷刺,尤其是當它涉及歷史類比或對台灣的參考時,也是一個高優先的目標。

JSON代碼的片段,引用了引用令牌和LLMS。大部分內容都是中文。

圖片來源:Charles Rollet

培訓數據包括可能引起社會動蕩的各種內容,例如有關腐敗警察的投訴,有關農村貧困的報告以及有關被驅逐的共產黨官員的新聞。該數據集還包含對台灣和與軍事有關的主題的廣泛參考,中文對台灣(台灣)的話出現了15,000多次。

該數據集的預期用途被描述為“公眾輿論工作”,第19條解釋的邁克爾·卡斯特(Michael Caster)通常與中國網絡空間管理(CAC)有關,涉及審查和宣傳工作。這與中國總統習近平對互聯網的看法相吻合,這是共產黨公眾輿論工作的“前線”。

這種發展是採用AI技術用於壓制目的的更廣泛趨勢的一部分。 Openai最近報導說,一位可能來自中國的身份不明的演員使用生成的AI來監視社交媒體和向中國政府的反政府哨所。也使用了相同的技術來對中國持不同政見者凱西(Cai Xia)產生批判性評論。

儘管中國的傳統審查方法依靠基本算法來阻止黑名單的術語,但LLMS的使用代表了一個重大進步。這些AI系統甚至可以在大規模上檢測到微妙的批評,並在處理更多數據時不斷改進。

Xiao Qiang告訴TechCrunch:“我認為重要的是要強調AI驅動的審查制度如何發展,這使國家對公共話語的控制更加複雜,尤其是在諸如DeepSeek之類的中國AI模型正在製作媒體上的時候。”

相關文章
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
評論 (30)
0/200
FrankMartínez 2025年04月10日 18:58:08

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson 2025年04月11日 15:36:22

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez 2025年04月11日 13:45:57

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis 2025年04月11日 20:03:39

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite 2025年04月12日 04:05:41

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis 2025年04月16日 07:23:03

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

OR