ニュース 漏れたデータによって暴露された中国のAI検閲

漏れたデータによって暴露された中国のAI検閲

2025年4月10日
WillGarcía
8

中国政府による感受性のためにフラグが付けられたコンテンツの133,000の例を含むリークされたデータベースによって明らかにされたように、中国の検閲能力を高めるためにAIを使用していることは、新しいレベルに達しました。この洗練された大規模な言語モデル(LLM)は、農村部の貧困から共産党内の腐敗、さらには微妙な政治風刺まで、幅広いトピックに関連するコンテンツを自動的に検出および検閲するように設計されています。

かみそりワイヤーの後ろの柱の中国の旗

2019年6月4日に撮影されたこの写真は、中国の新jiang地域のカシュガーの南にあるYengisarの住宅敷地にあるレイザーワイヤーの背後にある中国の旗を示しています。

中国の検閲を専門とするUCバークレーの研究者であるXiao Qiangによると、このデータベースは、中国政府またはその関連会社がLLMを使用して弾圧の努力を強化しているという「明確な証拠」です。人間のモデレーターやキーワードフィルタリングに依存する従来の方法とは異なり、このAI駆動型アプローチは、州制御された情報管理の効率と精度を大幅に向上させることができます。

Baiduサーバーでホストされている無担保Elasticsearchデータベースでセキュリティ研究者のNetaskariが発見したデータセットには、2024年12月からの最近のエントリが含まれています。データセットを正確に作成した人は誰ですか。政治的風刺は、特に歴史的な類推や台湾への言及を含む場合、優先順位の標的でもあります。

プロンプトトークンとLLMSを参照するJSONコードのスニペット。内容の多くは中国語です。

画像クレジット:チャールズ・ロレット

トレーニングデータには、腐敗した警察官に関する苦情、農村部の貧困に関する報告、追放された共産党職員に関するニュースなど、社会的不安を潜在的に巻き付ける可能性のあるコンテンツのさまざまな例が含まれています。データセットには、台湾と軍事関連のトピックへの広範な参照も含まれており、台湾の中国語の言葉(台湾)は15,000回以上登場します。

データセットの意図された使用は「世論作業」と呼ばれています。これは、第19条のマイケルキャスターが通常、中国のサイバースペース管理(CAC)に関連付けられており、検閲とプロパガンダの取り組みを含む用語です。これは、共産党の世論の「最前線」としてのインターネットの中国大統領習近平国家の見解と一致しています。

この開発は、抑圧的な目的のためにAI技術を採用する権威主義体制のより広範な傾向の一部です。 Openaiは最近、中国出身の正体不明の俳優が生成AIを使用してソーシャルメディアを監視し、中国政府に反政府のポストを転送したと報告しました。同じ技術も、著名な中国の反体制派であるCai Xiaに関する批判的なコメントを生成するためにも使用されました。

中国の伝統的な検閲方法は、ブラックリストの用語をブロックするために基本的なアルゴリズムに依存していますが、LLMの使用は大きな進歩を表しています。これらのAIシステムは、大規模な微妙な批判を検出し、より多くのデータを処理するにつれて継続的に改善することができます。

「AI主導の検閲がどのように進化しているかを強調することが重要だと思います。特に、Deepseekなどの中国のAIモデルが頭頂を作っている時期に、国民の言説に対する国家がさらに洗練されています」とXiao QiangはTechCrunchに語りました。

関連記事
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
コメント (30)
0/200
FrankMartínez 2025年4月10日 18:58:08 GMT

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson 2025年4月11日 15:36:22 GMT

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez 2025年4月11日 13:45:57 GMT

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis 2025年4月11日 20:03:39 GMT

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite 2025年4月12日 4:05:41 GMT

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis 2025年4月16日 7:23:03 GMT

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

OR