вариант
Дом
Новости
Китайская цензура ИИ, выявленная просочившимися данными

Китайская цензура ИИ, выявленная просочившимися данными

10 апреля 2025 г.
65

Использование ИИ в Китае для повышения его цензуры достигло нового уровня, как показано в просочившейся базе данных, содержащей 133 000 примеров контента, отмеченного для чувствительности правительством Китая. Эта сложная большая языковая модель (LLM) предназначена для автоматического обнаружения и цензуры, связанного с широким спектром тем, от бедности в сельских районах до коррупции в Коммунистической партии и даже тонкой политической сатиры.

Китайский флаг на шесте позади бритвы

Эта фотография, сделанная 4 июня 2019 года, показывает китайский флаг позади бритвы в жилищном комплексе в Йенгисаре, к югу от Кашгара, в западном регионе Китая Синьцзян.

По словам Сяо Цянь, исследователя в Калифорнийском университете в Беркли, который специализируется на китайской цензуре, эта база данных является «четким доказательством», что правительство Китая или его филиалы используют LLM для поддержки их усилий по репрессии. В отличие от традиционных методов, которые зависят от модераторов человека и фильтрации ключевых слов, этот подход, управляемый AI, может значительно повысить эффективность и точность управления информацией, контролируемой состоянием.

Набор данных, обнаруженный исследователем безопасности Netaskari в незащищенной базе данных Elasticsearch, размещенной на сервере Baidu, включает в себя недавние записи с декабря 2024 года. Неясно, кто точно создал набор данных, но его цель очевидна: обучить LLM для выявления и флаги, связанных с чувствительными темами, такими как загрязнение, безопасность пищевых продуктов, финансовые районы, трудовые диспы и военные материи. Политическая сатира, особенно когда она включает в себя исторические аналогии или ссылки на Тайвань, также является высокой целью.

фрагмент кода JSON, который ссылается на токены и LLMS. Большая часть содержимого на китайском языке.

Кредиты изображения: Чарльз Роллет

Данные обучения включают в себя различные примеры содержания, которые потенциально могут вызвать социальные волнения, такие как жалобы на коррумпированные полицейские, сообщения о бедности в сельской местности и новости о изгнанных чиновниках коммунистической партии. Набор данных также содержит обширные ссылки на Тайвань и связанные с военными темами, а китайское слово для Тайваня (台湾) появляется более 15 000 раз.

Предполагаемое использование набора данных описывается как «работа общественного мнения», термин, который объясняет Майкл Кастер из статьи 19, обычно связан с управлением киберпространством Китая (CAC) и включает в себя цензуру и усилия по пропаганде. Это согласуется с представлением президента Китая Си Цзиньпина на Интернет как «фронт» работы общественного мнения Коммунистической партии.

Это развитие является частью более широкой тенденции авторитарных режимов, принимающих технологию ИИ в репрессивных целях. Openai недавно сообщил, что неопознанный актер, вероятно, из Китая, использовал генеративный ИИ для мониторинга социальных сетей и форвардных антиправительственных должностей для правительства Китая. Та же технология также использовалась для создания критических комментариев о выдающемся китайском диссиденте, Cai Xia.

В то время как традиционные методы цензуры Китая основаны на основных алгоритмах для блокировки терминов с черным списком, использование LLMS представляет собой значительный прогресс. Эти системы ИИ могут обнаружить даже тонкую критику в масштабе и постоянно улучшаться по мере их обработки большего количества данных.

«Я думаю, что крайне важно подчеркнуть, как развивается цензура, управляемая ИИ, что делает государственный контроль над публичным дискурсом еще более сложным, особенно в то время, когда китайские модели ИИ, такие как DeedSeek, делают головные волны»,-сказал Сяо Цянь.

Связанная статья
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
Комментарии (35)
FrankMartínez
FrankMartínez 11 апреля 2025 г., 0:00:00 GMT

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson
GregoryWilson 11 апреля 2025 г., 0:00:00 GMT

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez
RoyLopez 11 апреля 2025 г., 0:00:00 GMT

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis
MichaelDavis 12 апреля 2025 г., 0:00:00 GMT

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite
CharlesWhite 12 апреля 2025 г., 0:00:00 GMT

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis
CarlLewis 16 апреля 2025 г., 0:00:00 GMT

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

Вернуться к вершине
OR