Китайская цензура ИИ, выявленная просочившимися данными
10 апреля 2025 г.
WillGarcía
8
Использование ИИ в Китае для повышения его цензуры достигло нового уровня, как показано в просочившейся базе данных, содержащей 133 000 примеров контента, отмеченного для чувствительности правительством Китая. Эта сложная большая языковая модель (LLM) предназначена для автоматического обнаружения и цензуры, связанного с широким спектром тем, от бедности в сельских районах до коррупции в Коммунистической партии и даже тонкой политической сатиры.

Эта фотография, сделанная 4 июня 2019 года, показывает китайский флаг позади бритвы в жилищном комплексе в Йенгисаре, к югу от Кашгара, в западном регионе Китая Синьцзян.
По словам Сяо Цянь, исследователя в Калифорнийском университете в Беркли, который специализируется на китайской цензуре, эта база данных является «четким доказательством», что правительство Китая или его филиалы используют LLM для поддержки их усилий по репрессии. В отличие от традиционных методов, которые зависят от модераторов человека и фильтрации ключевых слов, этот подход, управляемый AI, может значительно повысить эффективность и точность управления информацией, контролируемой состоянием.
Набор данных, обнаруженный исследователем безопасности Netaskari в незащищенной базе данных Elasticsearch, размещенной на сервере Baidu, включает в себя недавние записи с декабря 2024 года. Неясно, кто точно создал набор данных, но его цель очевидна: обучить LLM для выявления и флаги, связанных с чувствительными темами, такими как загрязнение, безопасность пищевых продуктов, финансовые районы, трудовые диспы и военные материи. Политическая сатира, особенно когда она включает в себя исторические аналогии или ссылки на Тайвань, также является высокой целью.

Кредиты изображения: Чарльз Роллет
Данные обучения включают в себя различные примеры содержания, которые потенциально могут вызвать социальные волнения, такие как жалобы на коррумпированные полицейские, сообщения о бедности в сельской местности и новости о изгнанных чиновниках коммунистической партии. Набор данных также содержит обширные ссылки на Тайвань и связанные с военными темами, а китайское слово для Тайваня (台湾) появляется более 15 000 раз.
Предполагаемое использование набора данных описывается как «работа общественного мнения», термин, который объясняет Майкл Кастер из статьи 19, обычно связан с управлением киберпространством Китая (CAC) и включает в себя цензуру и усилия по пропаганде. Это согласуется с представлением президента Китая Си Цзиньпина на Интернет как «фронт» работы общественного мнения Коммунистической партии.
Это развитие является частью более широкой тенденции авторитарных режимов, принимающих технологию ИИ в репрессивных целях. Openai недавно сообщил, что неопознанный актер, вероятно, из Китая, использовал генеративный ИИ для мониторинга социальных сетей и форвардных антиправительственных должностей для правительства Китая. Та же технология также использовалась для создания критических комментариев о выдающемся китайском диссиденте, Cai Xia.
В то время как традиционные методы цензуры Китая основаны на основных алгоритмах для блокировки терминов с черным списком, использование LLMS представляет собой значительный прогресс. Эти системы ИИ могут обнаружить даже тонкую критику в масштабе и постоянно улучшаться по мере их обработки большего количества данных.
«Я думаю, что крайне важно подчеркнуть, как развивается цензура, управляемая ИИ, что делает государственный контроль над публичным дискурсом еще более сложным, особенно в то время, когда китайские модели ИИ, такие как DeedSeek, делают головные волны»,-сказал Сяо Цянь.
Связанная статья
A análise revela as respostas da IA na China variam de acordo com a linguagem
Explorando a censura da IA: uma análise baseada em idiomas não é segredo de que os modelos de IA dos laboratórios chineses, como Deepseek, estão sujeitos a regras estritas de censura. Uma regulamentação de 2023 do partido no poder da China proíbe explicitamente esses modelos de gerar conteúdo que poderia minar a unidade nacional ou mais
A China está no topo das classificações globais em pesquisa de vigilância de visão computacional: CEST
Um estudo recente do Center for Security and Emerging Technology (CSET) lançou luz sobre a liderança significativa da China na pesquisa de tecnologias de vigilância relacionadas à IA. O relatório, intitulado ** tendências na pesquisa de IA para a vigilância visual de populações **, investiga como a pesquisa da China sec
Eric Schmidt se opõe ao projeto AGI Manhattan
Em um documento de política divulgado na quarta-feira, o ex-CEO do Google, Eric Schmidt, junto com o CEO da IA Alexandr Wang e o diretor de segurança da IA Dan Hendrycks, aconselhou contra os EUA que lançam uma iniciativa em estilo de projeto de Manhattan para desenvolver sistemas de IA com inteligência "super-humana", comumente referido
Комментарии (30)
FrankMartínez
10 апреля 2025 г., 18:58:08 GMT
This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.
0
GregoryWilson
11 апреля 2025 г., 15:36:22 GMT
このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。
0
RoyLopez
11 апреля 2025 г., 13:45:57 GMT
이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.
0
MichaelDavis
11 апреля 2025 г., 20:03:39 GMT
Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.
0
CharlesWhite
12 апреля 2025 г., 4:05:41 GMT
Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.
0
CarlLewis
16 апреля 2025 г., 7:23:03 GMT
The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔
0






Использование ИИ в Китае для повышения его цензуры достигло нового уровня, как показано в просочившейся базе данных, содержащей 133 000 примеров контента, отмеченного для чувствительности правительством Китая. Эта сложная большая языковая модель (LLM) предназначена для автоматического обнаружения и цензуры, связанного с широким спектром тем, от бедности в сельских районах до коррупции в Коммунистической партии и даже тонкой политической сатиры.
По словам Сяо Цянь, исследователя в Калифорнийском университете в Беркли, который специализируется на китайской цензуре, эта база данных является «четким доказательством», что правительство Китая или его филиалы используют LLM для поддержки их усилий по репрессии. В отличие от традиционных методов, которые зависят от модераторов человека и фильтрации ключевых слов, этот подход, управляемый AI, может значительно повысить эффективность и точность управления информацией, контролируемой состоянием.
Набор данных, обнаруженный исследователем безопасности Netaskari в незащищенной базе данных Elasticsearch, размещенной на сервере Baidu, включает в себя недавние записи с декабря 2024 года. Неясно, кто точно создал набор данных, но его цель очевидна: обучить LLM для выявления и флаги, связанных с чувствительными темами, такими как загрязнение, безопасность пищевых продуктов, финансовые районы, трудовые диспы и военные материи. Политическая сатира, особенно когда она включает в себя исторические аналогии или ссылки на Тайвань, также является высокой целью.
Данные обучения включают в себя различные примеры содержания, которые потенциально могут вызвать социальные волнения, такие как жалобы на коррумпированные полицейские, сообщения о бедности в сельской местности и новости о изгнанных чиновниках коммунистической партии. Набор данных также содержит обширные ссылки на Тайвань и связанные с военными темами, а китайское слово для Тайваня (台湾) появляется более 15 000 раз.
Предполагаемое использование набора данных описывается как «работа общественного мнения», термин, который объясняет Майкл Кастер из статьи 19, обычно связан с управлением киберпространством Китая (CAC) и включает в себя цензуру и усилия по пропаганде. Это согласуется с представлением президента Китая Си Цзиньпина на Интернет как «фронт» работы общественного мнения Коммунистической партии.
Это развитие является частью более широкой тенденции авторитарных режимов, принимающих технологию ИИ в репрессивных целях. Openai недавно сообщил, что неопознанный актер, вероятно, из Китая, использовал генеративный ИИ для мониторинга социальных сетей и форвардных антиправительственных должностей для правительства Китая. Та же технология также использовалась для создания критических комментариев о выдающемся китайском диссиденте, Cai Xia.
В то время как традиционные методы цензуры Китая основаны на основных алгоритмах для блокировки терминов с черным списком, использование LLMS представляет собой значительный прогресс. Эти системы ИИ могут обнаружить даже тонкую критику в масштабе и постоянно улучшаться по мере их обработки большего количества данных.
«Я думаю, что крайне важно подчеркнуть, как развивается цензура, управляемая ИИ, что делает государственный контроль над публичным дискурсом еще более сложным, особенно в то время, когда китайские модели ИИ, такие как DeedSeek, делают головные волны»,-сказал Сяо Цянь.




This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.




このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。




이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.




Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.




Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.




The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔












