Hogar Noticias Censura de IA china expuesta por datos filtrados

Censura de IA china expuesta por datos filtrados

10 de abril de 2025
WillGarcía
8

El uso de AI por parte de China para mejorar sus capacidades de censura ha alcanzado un nuevo nivel, como lo revela una base de datos filtrada que contiene 133,000 ejemplos de contenido marcado por sensibilidad por parte del gobierno chino. Este sofisticado modelo de lenguaje grande (LLM) está diseñado para detectar y censurar automáticamente el contenido relacionado con una amplia gama de temas, desde la pobreza en las zonas rurales hasta la corrupción dentro del Partido Comunista e incluso sutiles sátira política.

Bandera china en el poste detrás del alambre de afeitar

Esta foto tomada el 4 de junio de 2019 muestra la bandera china detrás de Razor Wire en un complejo de viviendas en Yengisar, al sur de Kashgar, en la región occidental de Xinjiang de China. Créditos de imagen: Greg Baker / AFP / Getty Images

Según Xiao Qiang, un investigador de UC Berkeley que se especializa en censura china, esta base de datos es "evidencia clara" de que el gobierno chino o sus afiliados están utilizando LLM para reforzar sus esfuerzos de represión. A diferencia de los métodos tradicionales que dependen de los moderadores humanos y el filtrado de palabras clave, este enfoque impulsado por la IA puede mejorar significativamente la eficiencia y la precisión de la gestión de la información controlada por el estado.

El conjunto de datos, descubierto por el investigador de seguridad Netaskari en una base de datos Elasticsearch no segura alojada en un servidor de Baidu, incluye entradas recientes de diciembre de 2024. No está claro quién creó exactamente el conjunto de datos, pero su propósito es evidente: para capacitar a una LLM para identificar y marcar el contenido relacionado con temas sensibles como la contaminación, la seguridad alimentaria, el craude financiero, las disputas laborales y las materias militares y las materias militares. La sátira política, especialmente cuando involucra analogías históricas o referencias a Taiwán, también es un objetivo de alta prioridad.

Un fragmento de código JSON que hace referencia a tokens y LLM. Gran parte del contenido están en chino.

Créditos de imagen: Charles Rollet

Los datos de capacitación incluyen varios ejemplos de contenido que podrían provocar disturbios sociales, como quejas sobre oficiales de policía corruptos, informes sobre la pobreza rural y noticias sobre funcionarios expulsados ​​del Partido Comunista. El conjunto de datos también contiene referencias extensas a Taiwán y temas relacionados con el ejército, con la palabra china para Taiwán (台湾) que aparece más de 15,000 veces.

El uso previsto del conjunto de datos se describe como "trabajo de opinión pública", un término que Michael Caster del artículo 19 explica se asocia típicamente con la administración del ciberespacio de China (CAC) e implica censura y esfuerzos de propaganda. Esto se alinea con la visión del presidente chino Xi Jinping de Internet como la "primera línea" del trabajo de opinión pública del Partido Comunista.

Este desarrollo es parte de una tendencia más amplia de regímenes autoritarios que adoptan la tecnología de IA para fines represivos. Operai informó recientemente que un actor no identificado, probablemente de China, utilizó IA generativa para monitorear las redes sociales y los puestos antigubernamentales avanzados al gobierno chino. La misma tecnología también se utilizó para generar comentarios críticos sobre un disidente chino destacado, Cai Xia.

Si bien los métodos de censura tradicionales de China dependen de algoritmos básicos para bloquear los términos con la lista negra, el uso de LLM representa un avance significativo. Estos sistemas de IA pueden detectar incluso críticas sutiles a gran escala y mejorar continuamente a medida que procesan más datos.

"Creo que es crucial resaltar cómo está evolucionando la censura de IA, haciendo que el control estatal sobre el discurso público sea aún más sofisticado, especialmente en un momento en que los modelos de IA chinos como Deepseek están haciendo ondas de cabeza", dijo Xiao Qiang a TechCrunch.

Artículo relacionado
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
Comentario (30)
0/200
FrankMartínez 10 de abril de 2025 18:58:08 GMT

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson 11 de abril de 2025 15:36:22 GMT

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez 11 de abril de 2025 13:45:57 GMT

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis 11 de abril de 2025 20:03:39 GMT

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite 12 de abril de 2025 04:05:41 GMT

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis 16 de abril de 2025 07:23:03 GMT

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

OR