유출 된 데이터로 노출 된 중국 AI 검열
2025년 4월 10일
WillGarcía
8
검열 능력을 향상시키기 위해 중국의 AI를 사용하는 것은 중국 정부의 민감성을 위해 133,000 건의 콘텐츠를 포함하는 유출 된 데이터베이스에 의해 밝혀진 바와 같이 새로운 차원에 도달했다. 이 정교한 대형 언어 모델 (LLM)은 농촌 지역의 빈곤에서 공산당 내 부패, 심지어 미묘한 정치적 풍자에 이르기까지 광범위한 주제와 관련된 내용을 자동으로 감지하고 검열하도록 설계되었습니다.

2019 년 6 월 4 일에 찍은이 사진은 중국의 서부 신장 지역에있는 카슈가 남쪽의 Yengisar에있는 주택 화합물에있는 Razor 와이어 뒤에있는 중국 깃발을 보여줍니다. 이미지 크레딧 : Greg Baker / AFP / Getty Images
중국 검열을 전문으로하는 UC Berkeley의 연구원 인 Xiao Qiang에 따르면,이 데이터베이스는 중국 정부 나 그 계열사가 LLM을 사용하여 억압 노력을 강화하고 있다는 명확한 증거입니다. 인간 중재자 및 키워드 필터링에 의존하는 전통적인 방법과 달리이 AI 중심 접근 방식은 상태 제어 정보 관리의 효율성과 정밀도를 크게 향상시킬 수 있습니다.
Baidu 서버에서 호스팅 된 무담보 엘라스틱 검색 데이터베이스에서 보안 연구원 Netaskari가 발견 한 데이터 세트에는 2024 년 12 월의 최근 항목이 포함되어 있습니다. 누가 데이터 세트를 정확히 만들었는지는 확실하지 않지만, 그 목적은 분명합니다. 정치 풍자, 특히 역사적 비유 나 대만에 대한 언급이 포함될 때 우선 순위가 높은 목표입니다.

이미지 크레딧 : Charles Rollet
훈련 데이터에는 부패한 경찰관에 대한 불만, 농촌 빈곤에 대한 보고서, 추방 된 공산당 공무원에 대한 뉴스와 같은 사회적 불안을 불러 일으킬 수있는 다양한 콘텐츠의 예가 포함됩니다. 이 데이터 세트에는 대만과 군사 관련 주제에 대한 광범위한 언급이 포함되어 있으며, 대만에 대한 중국어 단어 (台湾)는 15,000 번 이상 나타납니다.
데이터 세트의 의도 된 사용은 제 19 조의 Michael Caster가 일반적으로 중국의 사이버 공간 관리 (CAC)와 관련이 있으며 검열 및 선전 노력과 관련이있는 "여론 공사"로 설명됩니다. 이것은 Xi Jinping의 중국 대통령의 인터넷에 대한 관점과 공산당의 여론 조사의 "최전선"과 일치합니다.
이 발전은 억압 목적으로 AI 기술을 채택하는 권위주의 체제의 광범위한 경향의 일부입니다. Openai는 최근 중국 출신의 미확인 행위자가 소셜 미디어를 모니터링하고 반정부 지위를 중국 정부에 전달하기 위해 생성 AI를 사용했다고보고했다. 같은 기술이 저명한 중국 반체제 인 Cai Xia에 대한 비판적 의견을 생성하는 데 사용되었습니다.
중국의 전통적인 검열 방법은 블랙리스트 용어를 차단하기 위해 기본 알고리즘에 의존하지만 LLM의 사용은 상당한 발전을 나타냅니다. 이러한 AI 시스템은 대규모 규모로 미묘한 비판을 감지하고 더 많은 데이터를 처리함에 따라 지속적으로 개선 할 수 있습니다.
Xiao Qiang은 "AI 중심 검열이 어떻게 발전하고 있는지 강조하는 것이 중요하다고 생각합니다. 특히 DeepSeek와 같은 중국 AI 모델이 헤드 웨이브를 만들 때 공공 담론에 대한 국가를 통제하는 것이 더욱 정교합니다."Xiao Qiang은 TechCrunch에 말했다.
관련 기사
分析揭示了AI对中国的反应因语言而有所不同
探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET
安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Schmidt)反对阿吉·曼哈顿(Agi Manhattan)项目
在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Schmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
의견 (30)
0/200
FrankMartínez
2025년 4월 10일 오후 6시 58분 8초 GMT
This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.
0
GregoryWilson
2025년 4월 11일 오후 3시 36분 22초 GMT
このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。
0
RoyLopez
2025년 4월 11일 오후 1시 45분 57초 GMT
이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.
0
MichaelDavis
2025년 4월 11일 오후 8시 3분 39초 GMT
Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.
0
CharlesWhite
2025년 4월 12일 오전 4시 5분 41초 GMT
Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.
0
CarlLewis
2025년 4월 16일 오전 7시 23분 3초 GMT
The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔
0






검열 능력을 향상시키기 위해 중국의 AI를 사용하는 것은 중국 정부의 민감성을 위해 133,000 건의 콘텐츠를 포함하는 유출 된 데이터베이스에 의해 밝혀진 바와 같이 새로운 차원에 도달했다. 이 정교한 대형 언어 모델 (LLM)은 농촌 지역의 빈곤에서 공산당 내 부패, 심지어 미묘한 정치적 풍자에 이르기까지 광범위한 주제와 관련된 내용을 자동으로 감지하고 검열하도록 설계되었습니다.
중국 검열을 전문으로하는 UC Berkeley의 연구원 인 Xiao Qiang에 따르면,이 데이터베이스는 중국 정부 나 그 계열사가 LLM을 사용하여 억압 노력을 강화하고 있다는 명확한 증거입니다. 인간 중재자 및 키워드 필터링에 의존하는 전통적인 방법과 달리이 AI 중심 접근 방식은 상태 제어 정보 관리의 효율성과 정밀도를 크게 향상시킬 수 있습니다.
Baidu 서버에서 호스팅 된 무담보 엘라스틱 검색 데이터베이스에서 보안 연구원 Netaskari가 발견 한 데이터 세트에는 2024 년 12 월의 최근 항목이 포함되어 있습니다. 누가 데이터 세트를 정확히 만들었는지는 확실하지 않지만, 그 목적은 분명합니다. 정치 풍자, 특히 역사적 비유 나 대만에 대한 언급이 포함될 때 우선 순위가 높은 목표입니다.
훈련 데이터에는 부패한 경찰관에 대한 불만, 농촌 빈곤에 대한 보고서, 추방 된 공산당 공무원에 대한 뉴스와 같은 사회적 불안을 불러 일으킬 수있는 다양한 콘텐츠의 예가 포함됩니다. 이 데이터 세트에는 대만과 군사 관련 주제에 대한 광범위한 언급이 포함되어 있으며, 대만에 대한 중국어 단어 (台湾)는 15,000 번 이상 나타납니다.
데이터 세트의 의도 된 사용은 제 19 조의 Michael Caster가 일반적으로 중국의 사이버 공간 관리 (CAC)와 관련이 있으며 검열 및 선전 노력과 관련이있는 "여론 공사"로 설명됩니다. 이것은 Xi Jinping의 중국 대통령의 인터넷에 대한 관점과 공산당의 여론 조사의 "최전선"과 일치합니다.
이 발전은 억압 목적으로 AI 기술을 채택하는 권위주의 체제의 광범위한 경향의 일부입니다. Openai는 최근 중국 출신의 미확인 행위자가 소셜 미디어를 모니터링하고 반정부 지위를 중국 정부에 전달하기 위해 생성 AI를 사용했다고보고했다. 같은 기술이 저명한 중국 반체제 인 Cai Xia에 대한 비판적 의견을 생성하는 데 사용되었습니다.
중국의 전통적인 검열 방법은 블랙리스트 용어를 차단하기 위해 기본 알고리즘에 의존하지만 LLM의 사용은 상당한 발전을 나타냅니다. 이러한 AI 시스템은 대규모 규모로 미묘한 비판을 감지하고 더 많은 데이터를 처리함에 따라 지속적으로 개선 할 수 있습니다.
Xiao Qiang은 "AI 중심 검열이 어떻게 발전하고 있는지 강조하는 것이 중요하다고 생각합니다. 특히 DeepSeek와 같은 중국 AI 모델이 헤드 웨이브를 만들 때 공공 담론에 대한 국가를 통제하는 것이 더욱 정교합니다."Xiao Qiang은 TechCrunch에 말했다.




This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.




このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。




이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.




Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.




Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.




The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔












