Dữ liệu rò rỉ tiết lộ một máy chủ máy trừng phạt trí tuệ nhân tạo của Trung Quốc

\

Một khiếu nại về đói nghèo ở nông thôn Trung Quốc. Một bản tin về một đảng viên Đảng Cộng sản tham nhũng. Một lời kêu cứu về các công an tham nhũng đòi tiền của doanh nhân.

\

Đây chỉ là một số trong 133.000 ví dụ được đưa vào một hệ thống ngôn ngữ lớn phức tạp được thiết kế để tự động gạch đỏ bất kỳ nội dung nào được xem là nhạy cảm bởi chính phủ Trung Quốc.

\

Một cơ sở dữ liệu rò rỉ mà TechCrunch đã thấy tiết lộ Trung Quốc đã phát triển một hệ thống trí tuệ nhân tạo giúp tăng cường máy chủ trừng phạt mạnh mẽ của nó, mở rộng ra ngoài những điều cấm truyền thống như vụ thảm sát Quảng trường Thiên An Môn.

\

Hệ thống này dường như chủ yếu hướng đến việc kiểm duyệt công dân Trung Quốc trực tuyến nhưng cũng có thể được sử dụng cho các mục đích khác, như cải thiện máy chủ bị kiểm duyệt mạnh mẽ của trí tuệ nhân tạo Trung Quốc đã có.

\
Bức ảnh này được chụp vào ngày 4 tháng 6 năm 2019, cho thấy lá cờ Trung Quốc đằng sau dây chuyền lưỡi bén tại một khu nhà ở tại Yengisar, phía nam Kashgar, trong vùng Xinjiang phía tây của Trung Quốc.Ảnh: Greg Baker / AFP / Getty Images
\

Xiao Qiang, một nhà nghiên cứu tại Đại học California, Berkeley, nghiên cứu về việc kiểm duyệt của Trung Quốc và cũng đã kiểm tra cơ sở dữ liệu, nói với TechCrunch rằng đây là “bằng chứng rõ ràng” cho thấy chính phủ Trung Quốc hoặc các cơ quan liên kết muốn sử dụng LLM để cải thiện sự đàn áp.

\

“Không giống như cơ chế kiểm duyệt truyền thống, dựa vào lao động của con người cho việc lọc dựa trên từ khóa và xem xét thủ công, một LLM được đào tạo theo các hướng dẫn như vậy sẽ cải thiện đáng kể hiệu suất và độ chi tiết của việc kiểm soát thông tin do nhà nước đứng đầu,” Qiang nói với TechCrunch.

\

Điều này đưa thêm bằng chứng cho thấy các chế độ độc tài nhanh chóng áp dụng công nghệ trí tuệ nhân tạo mới nhất. Vào tháng Hai, ví dụ, OpenAI cho biết họ phát hiện nhiều tổ chức Trung Quốc sử dụng LLM để theo dõi các bài đăng chống chính phủ và vu oan người dân Trung Quốc.

\

Đại sứ quán Trung Quốc tại Washington, D.C., cho biết trong một tuyên bố cho TechCrunch rằng họ phản đối “tấn công không căn cứ và bôi nhọ đối với Trung Quốc” và rằng Trung Quốc coi trọng việc phát triển trí tuệ nhân tạo đạo đức.

\

Dữ liệu được tìm thấy nơi công cộng

\

Cơ sở dữ liệu được phát hiện bởi nhà nghiên cứu an ninh NetAskari, người đã chia sẻ một mẫu với TechCrunch sau khi phát hiện được lưu trữ trong một cơ sở dữ liệu Elasticsearch không được bảo mật trên một máy chủ Baidu.

\

Điều này không chỉ ra sự liên quan từ cả hai công ty - tất cả các loại tổ chức lưu trữ dữ liệu của họ với các nhà cung cấp này.

\

Không có bất kỳ biểu hiện nào về ai chính xác đã xây dựng cơ sở dữ liệu, nhưng các bản ghi cho thấy dữ liệu là mới, với các mục nhập mới nhất vào tháng 12 năm 2024.

\

Một LLM để phát hiện phản đối

\

Bằng ngôn ngữ giống như cách mọi người gợi ý ChatGPT, người tạo ra hệ thống giao cho một LLM không tên phải tìm ra nếu một nội dung nào đó liên quan đến các chủ đề nhạy cảm về chính trị, đời sống xã hội và quân sự. Những nội dung như vậy được coi là “ưu tiên cao” và cần phải được đánh dấu ngay lập tức.

\

Các chủ đề ưu tiên cao bao gồm scandal về ô nhiễm và an toàn thực phẩm, gian lận tài chính và tranh chấp lao động, là những vấn đề nảy lửa tại Trung Quốc đôi khi dẫn đến các cuộc biểu tình công cộng - ví dụ, cuộc biểu tình chống ô nhiễm ở Shifang năm 2012.

\

Bất kỳ dạng của “châm biếm chính trị” đều được mục tiêu một cách rõ ràng. Ví dụ, nếu ai đó dùng thông điệp lịch sử để đưa ra điểm về “các nhân vật chính trị hiện tại,” thì phải được đánh dấu ngay lập tức, và cũng như bất kỳ điều gì liên quan đến “chính trị Đài Loan.” Vấn đề quân sự được mục tiêu một cách rộng rãi, bao gồm các báo cáo về các chuyển động, tập trận và vũ khí của quân đội.

\

Một đoạn của cơ sở dữ liệu có thể thấy dưới đây. Mã bên trong nó tham chiếu đến token gợi ý và LLM, xác nhận hệ thống sử dụng một mô hình trí tuệ nhân tạo để thực hiện nhiệm vụ:

\
Ảnh: Charles Rollet
\

Bên trong dữ liệu đào tạo

\

Từ bộ sưu tập lớn 133.000 ví dụ mà LLM phải đánh giá để kiểm duyệt, TechCrunch đã thu thập 10 mẩu đại diện của nội dung.

\

Các chủ đề có khả năng gây ra sự bất ổn xã hội là một chủ đề lặp lại. Một đoạn, ví dụ, là một bài đăng của một doanh nhân phàn nàn về các cảnh sát địa phương tham nhũng đòi tiền các doanh nhân, một vấn đề nổi lên tại Trung Quốc khi nền kinh tế của họ gặp khó khăn.

\

Một mẩu nội dung khác than thở về nghèo đói ở nông thôn Trung Quốc, mô tả các thị trấn xốp méo chỉ còn lại người cao tuổi và trẻ em. Cũng có một bản tin về Đảng Cộng sản Trung Quốc (ĐCST) trục xuất một quan chức địa phương vì tham nhũng nặng nề và tin vào “tín ngưỡng” thay vì chủ nghĩa Mac-lê-niên.

\

Có nhiều tài liệu liên quan đến Đài Loan và vấn đề quân sự, như bình luận về khả năng quân sự của Đài Loan và chi tiết về một máy bay tiêm kích mới của Trung Quốc. Từ khóa Tiếng Trung cho Đài Loan (台湾) một mình được đề cập trên 15.000 lần trong dữ liệu, một tìm kiếm của TechCrunch cho thấy.

\

Phản đối tinh vi cũng được mục tiêu. Một đoạn trong cơ sở dữ liệu là một câu chuyện xoắn quanh tính chất thoáng qua của quyền lực sử dụng thành ngữ phổ biến của Trung Quốc “Khi cây gỗ đổ, loài khỉ rải rác.”

\

Các chuyển động quyền lực đánh bại là một chủ đề đặc biệt nhạy cảm tại Trung Quốc nhờ vào hệ thống chính trị độc đáo của họ.

\

Xây dựng cho “công việc về ý kiến công cộng”

\

Cơ sở dữ liệu không bao gồm bất kỳ thông tin nào về những người tạo ra nó. Nhưng nó nói rằng nó dành cho “công việc về ý kiến công cộng,” điều này cung cấp một gợi ý mạnh rằng nó được thiết lập để phục vụ mục tiêu của chính phủ Trung Quốc, một chuyên gia cho biết với TechCrunch.

\

Michael Caster, quản lý chương trình Châu Á của tổ chức quyền lợi Article 19, giải thích rằng “công việc về ý kiến công cộng” được giám sát bởi một tổ chức quyền lực của chính phủ Trung Quốc, Cơ quan Quản lý Không gian Mạng của Trung Quốc (CAC), và thường chỉ đến việc kiểm duyệt và tuyên truyền.

\

Mục tiêu cuối cùng là đảm bảo các câu chuyện của chính phủ Trung Quốc được bảo vệ trực tuyến, trong khi bất kỳ quan điểm thay thế nào đều bị loại bỏ. Tổng bí thư Đảng Cộng sản Trung Quốc Tập Cận Bình đã mô tả internet như “đường tiền đầu” của “công việc về ý kiến công cộng” của ĐCST.

\

Đàn áp đang ngày càng thông minh hơn

\

Cơ sở dữ liệu được kiểm tra bởi TechCrunch là bằng chứng mới nhất cho thấy các chính phủ độc tài đang cố gắng tận dụng trí tuệ nhân tạo cho mục đích đàn áp.

\

OpenAI phát hành một báo cáo vào tháng trước tiết lộ rằng một nhân vật không xác định, có lẽ hoạt động từ Trung Quốc, đã sử dụng trí tuệ nhân tạo để theo dõi các cuộc trò chuyện trên mạng xã hội - đặc biệt là những cuộc trò chuyện ủng hộ các cuộc biểu tình đòi nhân quyền chống lại Trung Quốc - và chuyển tiếp chúng đến chính phủ Trung Quốc.

\

OpenAI cũng phát hiện công nghệ đang được sử dụng để tạo ra nhận xét cực kỳ chỉ trích về một nhà lãnh đạo lớn của người Trung Quốc, Cai Xia.

\

Truyền thống, các phương pháp kiểm duyệt của Trung Quốc dựa vào các thuật toán cơ bản hơn để tự động chặn nội dung đề cập đến các thuật ngữ bị cấm, như “thảm sát Thiên An Môn” hoặc “Tập Cận Bình,” như nhiều người dùng đã trải nghiệm khi sử dụng DeepSeek lần đầu tiên.

\

Nhưng công nghệ trí tuệ nhân tạo mới hơn, như LLMs, có thể làm cho máy chủ trừng phạt hiệu quả hơn bằng cách tìm thấy cảm nhận tinh tế ngay cả ở quy mô lớn. Một số hệ thống trí tuệ nhân tạo cũng có thể tiếp tục cải thiện khi chúng hấp thụ nhiều dữ liệu hơn và hơn nữa.

\

“Tôi nghĩ rằng việc nổi bật là làm thế nào kiểm duyệt dựa trên trí tuệ nhân tạo đang tiến triển, tạo ra sự kiểm soát của nhà nước đối với cuộc trò chuyện công cộng trở nên phức tạp hơn, đặc biệt vào thời điểm mà các mô hình trí tuệ nhân tạo của Trung Quốc như DeepSeek đang tạo sóng,” Xiao, nhà nghiên cứu Berkeley, nói với TechCrunch.