लीक डेटा द्वारा उजागर चीनी एआई सेंसरशिप
10 अप्रैल 2025
WillGarcía
8
अपनी सेंसरशिप क्षमताओं को बढ़ाने के लिए एआई का चीन का उपयोग एक नए स्तर तक पहुंच गया है, जैसा कि एक लीक डेटाबेस द्वारा पता चला है जिसमें चीनी सरकार द्वारा संवेदनशीलता के लिए 133,000 उदाहरणों को ध्वजांकित सामग्री के उदाहरण हैं। यह परिष्कृत बड़ा भाषा मॉडल (एलएलएम) ग्रामीण क्षेत्रों में गरीबी से लेकर कम्युनिस्ट पार्टी के भीतर भ्रष्टाचार और यहां तक कि सूक्ष्म राजनीतिक व्यंग्य तक, विषयों की एक विस्तृत श्रृंखला से संबंधित सामग्री का पता लगाने और सेंसर करने के लिए डिज़ाइन किया गया है।

4 जून, 2019 को ली गई यह तस्वीर, चीन के पश्चिमी शिनजियांग क्षेत्र में काशगर के दक्षिण में येंगिसार में एक आवास परिसर में रेजर वायर के पीछे चीनी ध्वज को दिखाती है।
यूसी बर्कले के एक शोधकर्ता जिओ किआंग के अनुसार, जो चीनी सेंसरशिप में माहिर हैं, यह डेटाबेस "स्पष्ट सबूत" है कि चीनी सरकार या उसके सहयोगी अपने दमन प्रयासों को बढ़ाने के लिए एलएलएम का उपयोग कर रहे हैं। पारंपरिक तरीकों के विपरीत जो मानव मध्यस्थों और कीवर्ड फ़िल्टरिंग पर निर्भर करते हैं, यह एआई-चालित दृष्टिकोण राज्य-नियंत्रित सूचना प्रबंधन की दक्षता और सटीकता को महत्वपूर्ण रूप से बढ़ा सकता है।
एक Baidu सर्वर पर होस्ट किए गए एक असुरक्षित इलास्टिक्स खोज डेटाबेस पर सुरक्षा शोधकर्ता Netaskari द्वारा खोजा गया डेटासेट, दिसंबर 2024 से हाल की प्रविष्टियाँ शामिल हैं। यह स्पष्ट नहीं है कि किसने डेटासेट बनाया है, लेकिन इसका उद्देश्य स्पष्ट है: एक एलएलएम को प्रशिक्षित करने के लिए और संवेदनशील विषयों जैसे कि प्रदूषण, खाद्य सुरक्षा, वित्तीय फ्रॉड, वित्तीय फ्रेड, और सैन्य पदार्थों को ध्वज सामग्री। राजनीतिक व्यंग्य, खासकर जब इसमें ऐतिहासिक उपमाएं या ताइवान के संदर्भ शामिल हैं, तो यह भी एक उच्च-प्राथमिकता का लक्ष्य है।

छवि क्रेडिट: चार्ल्स रोलेट
प्रशिक्षण डेटा में सामग्री के विभिन्न उदाहरण शामिल हैं जो संभावित रूप से सामाजिक अशांति को हल कर सकते हैं, जैसे कि भ्रष्ट पुलिस अधिकारियों के बारे में शिकायतें, ग्रामीण गरीबी पर रिपोर्ट, और निष्कासित कम्युनिस्ट पार्टी के अधिकारियों के बारे में समाचार। डेटासेट में ताइवान और सैन्य से संबंधित विषयों के व्यापक संदर्भ भी शामिल हैं, जिसमें ताइवान (台湾) के लिए चीनी शब्द 15,000 से अधिक बार दिखाई देते हैं।
डेटासेट के इच्छित उपयोग को "पब्लिक ओपिनियन वर्क" के रूप में वर्णित किया गया है, एक शब्द जिसे माइकल कॉस्टर ऑफ आर्टिकल 19 बताते हैं, आमतौर पर चीन (सीएसी) के साइबरस्पेस प्रशासन से जुड़ा हुआ है और इसमें सेंसरशिप और प्रचार प्रयास शामिल हैं। यह चीनी राष्ट्रपति शी जिनपिंग के इंटरनेट के दृष्टिकोण को कम्युनिस्ट पार्टी के सार्वजनिक राय के काम के "फ्रंटलाइन" के रूप में संरेखित करता है।
यह विकास दमनकारी उद्देश्यों के लिए एआई तकनीक को अपनाने वाले सत्तावादी शासन की एक व्यापक प्रवृत्ति का हिस्सा है। Openai ने हाल ही में बताया कि एक अज्ञात अभिनेता, जो चीन से संभावना है, ने सोशल मीडिया की निगरानी और चीनी सरकार को सरकार विरोधी पदों की निगरानी के लिए उदार AI का उपयोग किया। एक ही तकनीक का उपयोग एक प्रमुख चीनी असंतुष्ट, कै ज़िया के बारे में महत्वपूर्ण टिप्पणियों को उत्पन्न करने के लिए भी किया गया था।
जबकि चीन के पारंपरिक सेंसरशिप विधियां ब्लैकलिस्टेड शब्दों को ब्लॉक करने के लिए बुनियादी एल्गोरिदम पर भरोसा करती हैं, एलएलएम का उपयोग एक महत्वपूर्ण उन्नति का प्रतिनिधित्व करता है। ये एआई सिस्टम बड़े पैमाने पर भी सूक्ष्म आलोचना का पता लगा सकते हैं और लगातार सुधार करते हुए लगातार सुधार कर सकते हैं क्योंकि वे अधिक डेटा को संसाधित करते हैं।
"मुझे लगता है कि यह उजागर करने के लिए महत्वपूर्ण है कि एआई-चालित सेंसरशिप कैसे विकसित हो रही है, जिससे सार्वजनिक प्रवचन पर राज्य नियंत्रण और भी अधिक परिष्कृत हो जाता है, विशेष रूप से ऐसे समय में जब चीनी एआई मॉडल जैसे कि डीपसेक हेडवेव बना रहे हैं," ज़ियाओ क़ियांग ने टेकक्रंच को बताया।
संबंधित लेख
分析揭示了AI对中国的反应因语言而有所不同
探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET
安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Schmidt)反对阿吉·曼哈顿(Agi Manhattan)项目
在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Schmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
सूचना (30)
0/200
FrankMartínez
10 अप्रैल 2025 6:58:08 अपराह्न GMT
This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.
0
GregoryWilson
11 अप्रैल 2025 3:36:22 अपराह्न GMT
このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。
0
RoyLopez
11 अप्रैल 2025 1:45:57 अपराह्न GMT
이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.
0
MichaelDavis
11 अप्रैल 2025 8:03:39 अपराह्न GMT
Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.
0
CharlesWhite
12 अप्रैल 2025 4:05:41 पूर्वाह्न GMT
Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.
0
CarlLewis
16 अप्रैल 2025 7:23:03 पूर्वाह्न GMT
The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔
0






अपनी सेंसरशिप क्षमताओं को बढ़ाने के लिए एआई का चीन का उपयोग एक नए स्तर तक पहुंच गया है, जैसा कि एक लीक डेटाबेस द्वारा पता चला है जिसमें चीनी सरकार द्वारा संवेदनशीलता के लिए 133,000 उदाहरणों को ध्वजांकित सामग्री के उदाहरण हैं। यह परिष्कृत बड़ा भाषा मॉडल (एलएलएम) ग्रामीण क्षेत्रों में गरीबी से लेकर कम्युनिस्ट पार्टी के भीतर भ्रष्टाचार और यहां तक कि सूक्ष्म राजनीतिक व्यंग्य तक, विषयों की एक विस्तृत श्रृंखला से संबंधित सामग्री का पता लगाने और सेंसर करने के लिए डिज़ाइन किया गया है।
यूसी बर्कले के एक शोधकर्ता जिओ किआंग के अनुसार, जो चीनी सेंसरशिप में माहिर हैं, यह डेटाबेस "स्पष्ट सबूत" है कि चीनी सरकार या उसके सहयोगी अपने दमन प्रयासों को बढ़ाने के लिए एलएलएम का उपयोग कर रहे हैं। पारंपरिक तरीकों के विपरीत जो मानव मध्यस्थों और कीवर्ड फ़िल्टरिंग पर निर्भर करते हैं, यह एआई-चालित दृष्टिकोण राज्य-नियंत्रित सूचना प्रबंधन की दक्षता और सटीकता को महत्वपूर्ण रूप से बढ़ा सकता है।
एक Baidu सर्वर पर होस्ट किए गए एक असुरक्षित इलास्टिक्स खोज डेटाबेस पर सुरक्षा शोधकर्ता Netaskari द्वारा खोजा गया डेटासेट, दिसंबर 2024 से हाल की प्रविष्टियाँ शामिल हैं। यह स्पष्ट नहीं है कि किसने डेटासेट बनाया है, लेकिन इसका उद्देश्य स्पष्ट है: एक एलएलएम को प्रशिक्षित करने के लिए और संवेदनशील विषयों जैसे कि प्रदूषण, खाद्य सुरक्षा, वित्तीय फ्रॉड, वित्तीय फ्रेड, और सैन्य पदार्थों को ध्वज सामग्री। राजनीतिक व्यंग्य, खासकर जब इसमें ऐतिहासिक उपमाएं या ताइवान के संदर्भ शामिल हैं, तो यह भी एक उच्च-प्राथमिकता का लक्ष्य है।
प्रशिक्षण डेटा में सामग्री के विभिन्न उदाहरण शामिल हैं जो संभावित रूप से सामाजिक अशांति को हल कर सकते हैं, जैसे कि भ्रष्ट पुलिस अधिकारियों के बारे में शिकायतें, ग्रामीण गरीबी पर रिपोर्ट, और निष्कासित कम्युनिस्ट पार्टी के अधिकारियों के बारे में समाचार। डेटासेट में ताइवान और सैन्य से संबंधित विषयों के व्यापक संदर्भ भी शामिल हैं, जिसमें ताइवान (台湾) के लिए चीनी शब्द 15,000 से अधिक बार दिखाई देते हैं।
डेटासेट के इच्छित उपयोग को "पब्लिक ओपिनियन वर्क" के रूप में वर्णित किया गया है, एक शब्द जिसे माइकल कॉस्टर ऑफ आर्टिकल 19 बताते हैं, आमतौर पर चीन (सीएसी) के साइबरस्पेस प्रशासन से जुड़ा हुआ है और इसमें सेंसरशिप और प्रचार प्रयास शामिल हैं। यह चीनी राष्ट्रपति शी जिनपिंग के इंटरनेट के दृष्टिकोण को कम्युनिस्ट पार्टी के सार्वजनिक राय के काम के "फ्रंटलाइन" के रूप में संरेखित करता है।
यह विकास दमनकारी उद्देश्यों के लिए एआई तकनीक को अपनाने वाले सत्तावादी शासन की एक व्यापक प्रवृत्ति का हिस्सा है। Openai ने हाल ही में बताया कि एक अज्ञात अभिनेता, जो चीन से संभावना है, ने सोशल मीडिया की निगरानी और चीनी सरकार को सरकार विरोधी पदों की निगरानी के लिए उदार AI का उपयोग किया। एक ही तकनीक का उपयोग एक प्रमुख चीनी असंतुष्ट, कै ज़िया के बारे में महत्वपूर्ण टिप्पणियों को उत्पन्न करने के लिए भी किया गया था।
जबकि चीन के पारंपरिक सेंसरशिप विधियां ब्लैकलिस्टेड शब्दों को ब्लॉक करने के लिए बुनियादी एल्गोरिदम पर भरोसा करती हैं, एलएलएम का उपयोग एक महत्वपूर्ण उन्नति का प्रतिनिधित्व करता है। ये एआई सिस्टम बड़े पैमाने पर भी सूक्ष्म आलोचना का पता लगा सकते हैं और लगातार सुधार करते हुए लगातार सुधार कर सकते हैं क्योंकि वे अधिक डेटा को संसाधित करते हैं।
"मुझे लगता है कि यह उजागर करने के लिए महत्वपूर्ण है कि एआई-चालित सेंसरशिप कैसे विकसित हो रही है, जिससे सार्वजनिक प्रवचन पर राज्य नियंत्रण और भी अधिक परिष्कृत हो जाता है, विशेष रूप से ऐसे समय में जब चीनी एआई मॉडल जैसे कि डीपसेक हेडवेव बना रहे हैं," ज़ियाओ क़ियांग ने टेकक्रंच को बताया।




This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.




このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。




이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.




Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.




Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.




The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔












