Dữ liệu rò rỉ tiết lộ cách Trung Quốc đang tận dụng mô hình ngôn ngữ lớn để tự động phát hiện và kiểm duyệt nội dung “nhạy cảm” với quy mô và hiệu quả cao hơn.
Một cơ sở dữ liệu bị rò rỉ gồm hơn 133.000 ví dụ vừa được phát hiện đã tiết lộ những nỗ lực của Trung Quốc trong việc xây dựng hệ thống kiểm duyệt dựa trên trí tuệ nhân tạo để tự động kiểm soát thông tin trực tuyến. Tài liệu này cho thấy một bước tiến quan trọng trong công nghệ kiểm duyệt của nước này, chuyển từ phương pháp truyền thống dựa trên từ khóa sang một hệ thống thông minh hơn có khả năng phát hiện ngay cả những lời chỉ trích tinh tế và bất đồng chính kiến.
Phát hiện này do nhà nghiên cứu bảo mật NetAskari công bố sau khi tìm thấy dữ liệu được lưu trữ không bảo mật trên máy chủ Baidu. Dù không xác định được chính xác nguồn gốc của bộ dữ liệu, các mục nhập mới nhất được ghi nhận vào tháng 12 năm 2024, cho thấy đây là một dự án đang hoạt động.
TÍN DỤNG HÌNH ẢNH: GREG BAKER / AFP / GETTY IMAGES
Kiểm duyệt AI nhắm vào nhiều lĩnh vực nhạy cảm
Theo tài liệu được TechCrunch phân tích, hệ thống này được thiết kế để đánh dấu các nội dung thuộc nhiều loại “nhạy cảm” khác nhau. Những nội dung được ưu tiên kiểm duyệt bao gồm các vấn đề chính trị, xã hội và quân sự, các vụ bê bối ô nhiễm môi trường và an toàn thực phẩm, gian lận tài chính và tranh chấp lao động. Đặc biệt, mọi thông tin liên quan đến Đài Loan và các vấn đề quân sự, “châm biếm chính trị” dưới mọi hình thức, cũng như các phản ánh về đói nghèo ở nông thôn và tham nhũng của cán bộ địa phương đều nằm trong diện bị gắn cờ.
Xiao Qiang, nhà nghiên cứu tại UC Berkeley chuyên về kiểm duyệt Trung Quốc, nhận định đây là “bằng chứng rõ ràng” cho thấy nỗ lực của chính phủ Trung Quốc trong việc sử dụng mô hình ngôn ngữ lớn (LLM) để tăng cường khả năng đàn áp. “Không giống như các cơ chế kiểm duyệt truyền thống dựa vào lao động con người, một LLM được đào tạo trên các hướng dẫn như vậy sẽ cải thiện đáng kể hiệu quả và độ chi tiết của việc kiểm soát thông tin,” Qiang nhấn mạnh.
Dữ liệu này cũng cho thấy hệ thống được thiết kế cho “công tác dư luận”, một thuật ngữ thường được sử dụng tại Trung Quốc để chỉ các nỗ lực kiểm duyệt và tuyên truyền dưới sự giám sát của Cục Quản lý Không gian mạng Trung Quốc (CAC).
Phát hiện này xuất hiện chỉ vài tháng sau khi OpenAI công bố một báo cáo về việc các tổ chức Trung Quốc đang sử dụng AI tạo sinh để theo dõi các cuộc trò chuyện trực tuyến và tạo ra nội dung nhắm vào những người bất đồng chính kiến.
Khi được hỏi về phát hiện này, Đại sứ quán Trung Quốc tại Washington, D.C. đã phản hồi rằng họ phản đối “các cuộc tấn công và vu khống vô căn cứ chống lại Trung Quốc” và khẳng định rằng Trung Quốc rất coi trọng việc phát triển AI có đạo đức.