Trang chủ Tin tức Kiểm duyệt AI của Trung Quốc được phơi bày bởi dữ liệu bị rò rỉ

Kiểm duyệt AI của Trung Quốc được phơi bày bởi dữ liệu bị rò rỉ

Ngày 10 tháng 4 năm 2025
WillGarcía
8

Việc sử dụng AI của Trung Quốc để tăng cường khả năng kiểm duyệt của mình đã đạt đến cấp độ mới, như được tiết lộ bởi một cơ sở dữ liệu bị rò rỉ chứa 133.000 ví dụ về nội dung được gắn cờ cho sự nhạy cảm của chính phủ Trung Quốc. Mô hình ngôn ngữ lớn tinh vi (LLM) này được thiết kế để tự động phát hiện và kiểm duyệt nội dung liên quan đến một loạt các chủ đề, từ nghèo đói ở khu vực nông thôn đến tham nhũng trong Đảng Cộng sản và thậm chí là châm biếm chính trị tinh tế.

Cờ Trung Quốc trên cực phía sau dây dao cạo

Bức ảnh này được chụp vào ngày 4 tháng 6 năm 2019, cho thấy lá cờ Trung Quốc phía sau dây dao cạo tại một khu nhà ở ở Yengisar, phía nam Kashgar, ở khu vực Tân Cương của Trung Quốc.

Theo Xiao Qiang, một nhà nghiên cứu tại UC Berkeley, người chuyên về kiểm duyệt Trung Quốc, cơ sở dữ liệu này là "bằng chứng rõ ràng" rằng chính phủ Trung Quốc hoặc các chi nhánh của nó đang sử dụng LLM để củng cố các nỗ lực đàn áp của họ. Không giống như các phương pháp truyền thống phụ thuộc vào người điều hành con người và lọc từ khóa, phương pháp điều khiển AI này có thể tăng cường đáng kể hiệu quả và độ chính xác của quản lý thông tin do nhà nước kiểm soát.

Bộ dữ liệu, được phát hiện bởi nhà nghiên cứu bảo mật Netaskari trên cơ sở dữ liệu elaticsearch không có bảo đảm được lưu trữ trên một máy chủ Baidu, bao gồm các mục gần đây từ tháng 12 năm 2024. Không rõ ai đã tạo chính xác bộ dữ liệu, nhưng mục đích của nó là rõ ràng: để đào tạo LLM để xác định và gắn cờ. Satire chính trị, đặc biệt là khi nó liên quan đến các tương tự lịch sử hoặc tài liệu tham khảo đến Đài Loan, cũng là một mục tiêu ưu tiên cao.

Một đoạn mã JSON tham khảo các mã thông báo nhắc nhở và LLM. Phần lớn nội dung là bằng tiếng Trung.

Tín dụng hình ảnh: Charles Rollet

Dữ liệu đào tạo bao gồm các ví dụ khác nhau về nội dung có khả năng khuấy động tình trạng bất ổn xã hội, chẳng hạn như khiếu nại về các sĩ quan cảnh sát tham nhũng, báo cáo về nghèo đói ở nông thôn và tin tức về các quan chức đảng Cộng sản bị trục xuất. Bộ dữ liệu cũng chứa các tài liệu tham khảo rộng rãi về các chủ đề liên quan đến Đài Loan và quân đội, với từ tiếng Trung cho Đài Loan () xuất hiện hơn 15.000 lần.

Việc sử dụng dự định của bộ dữ liệu được mô tả là "công việc dư luận", một thuật ngữ mà Michael Caster của Điều 19 giải thích thường liên quan đến chính quyền không gian mạng của Trung Quốc (CAC) và liên quan đến kiểm duyệt và các nỗ lực tuyên truyền. Điều này phù hợp với quan điểm Internet của Chủ tịch Trung Quốc Tập Cận Bình là "tiền tuyến" của công việc dư luận của Đảng Cộng sản.

Sự phát triển này là một phần của xu hướng rộng lớn hơn của các chế độ độc đoán áp dụng công nghệ AI cho mục đích đàn áp. Openai gần đây đã báo cáo rằng một diễn viên không xác định, có khả năng từ Trung Quốc, đã sử dụng AI tổng quát để giám sát các phương tiện truyền thông xã hội và các bài đăng chống chính phủ đối với chính phủ Trung Quốc. Công nghệ tương tự cũng được sử dụng để tạo ra những bình luận phê bình về một nhà bất đồng chính kiến ​​nổi tiếng của Trung Quốc, Cai Xia.

Trong khi các phương pháp kiểm duyệt truyền thống của Trung Quốc dựa vào các thuật toán cơ bản để chặn các thuật ngữ bị liệt vào danh sách đen, việc sử dụng LLMS đại diện cho một tiến bộ đáng kể. Các hệ thống AI này có thể phát hiện những lời chỉ trích tinh tế trên quy mô lớn và liên tục cải thiện khi chúng xử lý nhiều dữ liệu hơn.

"Tôi nghĩ rằng điều quan trọng là làm nổi bật cách kiểm duyệt AI do AI phát triển, khiến cho việc kiểm soát nhà nước đối với diễn ngôn công khai thậm chí còn tinh vi hơn, đặc biệt là vào thời điểm mà các mô hình AI của Trung Quốc như Deepseek đang tạo ra sóng," Xiao Qiang nói với TechCrunch.

Bài viết liên quan
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
中国在计算机视觉监视研究中排名全球排名:CSET 中国在计算机视觉监视研究中排名全球排名:CSET 安全与新兴技术中心(CSET)的最新研究揭示了中国在与AI相关的监视技术研究中的重要领导。该报告标题为“ AI研究中的**趋势有关人群的视觉监视**),研究中国的研究如何
埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目 在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks中心和AI安全总监Dan Hendrycks中心,建议不要发起曼哈顿项目风格的计划,以开发AI Systems,以“超级人类”的智慧开发AI System
Nhận xét (30)
0/200
FrankMartínez 18:58:08 GMT Ngày 10 tháng 4 năm 2025

This app is eye-opening but kinda scary. It shows how AI is used for censorship in China, which is pretty intense. The database is huge, but navigating it feels clunky. It's a good wake-up call about AI's potential for harm, but the interface could use some work.

GregoryWilson 15:36:22 GMT Ngày 11 tháng 4 năm 2025

このアプリは目を開かせるけど、ちょっと怖いです。中国でのAIによる検閲の使い方を示していて、かなり強烈です。データベースは巨大ですが、操作がぎこちない感じがします。AIの害の可能性についての良い警告ですが、インターフェースは改善の余地がありますね。

RoyLopez 13:45:57 GMT Ngày 11 tháng 4 năm 2025

이 앱은 눈을 뜨게 하지만 좀 무섭네요. 중국에서 AI가 검열에 어떻게 사용되는지 보여주는데, 꽤 강렬해요. 데이터베이스는 거대하지만, 사용하기가 좀 어색해요. AI의 해악 가능성에 대한 좋은 경고지만, 인터페이스는 개선의 여지가 있어요.

MichaelDavis 20:03:39 GMT Ngày 11 tháng 4 năm 2025

Este aplicativo é revelador, mas um pouco assustador. Mostra como a IA é usada para censura na China, o que é bastante intenso. O banco de dados é enorme, mas navegar por ele parece desajeitado. É um bom alerta sobre o potencial de dano da IA, mas a interface poderia ser melhorada.

CharlesWhite 04:05:41 GMT Ngày 12 tháng 4 năm 2025

Esta aplicación abre los ojos pero da un poco de miedo. Muestra cómo se usa la IA para la censura en China, lo cual es bastante intenso. La base de datos es enorme, pero navegar por ella se siente torpe. Es una buena llamada de atención sobre el potencial de daño de la IA, pero la interfaz podría mejorar.

CarlLewis 07:23:03 GMT Ngày 16 tháng 4 năm 2025

The leaked data on Chinese AI censorship is pretty scary. It's like Big Brother on steroids! 😱 But I'm not surprised, just wish there was a way to fight back against this kind of control. Any ideas? 🤔

OR