
OpenAI đang đối mặt với một khiếu nại về quyền riêng tư khác tại châu Âu về xu hướng tạo ra thông tin sai lệch của chatbot trí tuệ nhân tạo của mình - và có vẻ như vấn đề này có thể khá phức tạp và khó bỏ qua đối với các cơ quan quản lý.
Nhóm bảo vệ quyền riêng tư Noyb đang hỗ trợ một cá nhân ở Na Uy người hoảng sợ khi phát hiện ChatGPT trả về thông tin mang tính chất tưởng tưởng, cáo buộc rằng anh ta đã bị kết án vì đã sát hại hai trong số ba đứa con của mình và cố ý giết người thứ ba.
Các khiếu nại về quyền riêng tư trước đó liên quan đến ChatGPT tạo ra dữ liệu cá nhân không chính xác như ngày sinh không đúng hoặc các thông tin về tiểu sử không chính xác. Một vấn đề đáng quan ngại là OpenAI không cung cấp cách để cá nhân sửa thông tin không chính xác mà AI tạo ra về họ. Thông thường, OpenAI đã đề xuất chặn câu trả lời cho những yêu cầu như vậy. Nhưng dưới Thông lệ Bảo vệ Dữ liệu Tổng quát (GDPR) của Liên minh châu Âu, người châu Âu có một bộ quyền truy cập dữ liệu bao gồm quyền sửa chữa dữ liệu cá nhân.
Một phần khác của luật bảo vệ dữ liệu này yêu cầu các bộ kiểm soát dữ liệu đảm bảo rằng dữ liệu cá nhân họ tạo ra về cá nhân là chính xác - và đây là một vấn đề mà Noyb đang nêu lên với khiếu nại ChatGPT mới nhất của mình.
“GDPR rõ ràng. Dữ liệu cá nhân phải chính xác,” Joakim Söderberg, luật sư bảo vệ dữ liệu tại Noyb, nói trong một tuyên bố. “Nếu không, người dùng có quyền yêu cầu thay đổi để phản ánh sự thật. Chỉ việc hiển thị một minh bạch nhỏ rằng chatbot có thể mắc lỗi rõ ràng không đủ. Bạn không thể chỉ tung ra thông tin sai lệch và cuối cùng thêm một minh bạch nhỏ nói rằng mọi thứ bạn nói có thể không đúng.”
Các vi phạm đã được xác nhận của GDPR có thể dẫn đến mức phạt lên đến 4% của tổng doanh số hàng năm.
Thực thi cũng có thể buộc các sản phẩm AI thay đổi. Đáng chú ý, một vụ can thiệp sớm của cơ quan bảo vệ dữ liệu của Ý đã khiến cho ChatGPT bị chặn tạm thời truy cập vào nước này vào mùa xuân năm 2023 đã khiến cho OpenAI thay đổi thông tin mà họ tiết lộ cho người dùng, ví dụ. Sau đó, cơ quan giám sát đã áp phạt OpenAI 15 triệu euro vì xử lý dữ liệu cá nhân mà không có căn cứ pháp lý chính thống.
Kể từ đó, có thể nói rằng các cơ quan giám sát quyền riêng tư trên toàn châu Âu đã áp dụng một cách tiếp cận cẩn trọng hơn đối với GenAI khi họ cố gắng tìm hiểu cách áp dụng GDPR cho những công cụ AI đầy tiềm năng này.
Hai năm trước, Ủy ban Bảo vệ Dữ liệu của Ireland (DPC) - có vai trò chính thức về dân quyền quy tác giới trên một khiếu nại của Noyb trước đó liên quan đến ChatGPT - khuyên chống không nên vội vàng cấm các công cụ GenAI, ví dụ. Điều này cho thấy rằng các cơ quan quản lý nên dành thời gian để xác định cách luật áp dụng.
Và đáng chú ý là một khiếu nại về quyền riêng tư đối với ChatGPT mà cơ quan bảo vệ dữ liệu của Ba Lan đã mở cuộc điều tra từ tháng 9 năm 2023 vẫn chưa có quyết định.
Khiếu nại mới của Noyb về ChatGPT dường như được dự tính để đánh thức các cơ quan quản lý quyền riêng tư về nguy cơ của các trí tuệ nhân tạo ảo giác.
‘Vụ việc làm cho cộng đồng địa phương giật mình…’
Tổ chức phi lợi nhuận đã chia sẻ hình ảnh (dưới đây) với TechCrunch, thể hiện một cuộc tương tác với ChatGPT trong đó trí tuệ nhân tạo phản ứng với một câu hỏi về “ai là Arve Hjalmar Holmen?” - tên của cá nhân đưa ra khiếu nại - bằng cách tạo ra một câu chuyện bi kịch sai lệch, cáo buộc rằng anh ta đã bị kết án vì giết con và bị kết án 21 năm tù vì đã sát hại hai trong ba cậu con trai của mình.

Mặc dù cáo buộc phỉ báng rằng Hjalmar Holmen là một tên sát nhân trẻ em là hoàn toàn sai, Noyb lưu ý rằng phản ứng của ChatGPT vẫn chứa một số sự thật, vì cá nhân trong câu chuyện này thật sự có ba đứa con. Chatbot cũng đã đúng giới tính của các đứa con của anh ta. Và tên thị trấn của anh ta đã được đặt đúng. Nhưng điều này càng làm cho AI tưởng tưởng ra những sự thậm khắc dường như khác thường và làm cho người ta bị sốc hơn.
Một người phát ngôn cho Noyb nói họ không thể xác định tại sao chatbot đã tạo ra một lịch sử cụ thể như vậy cho cá nhân này. “Chúng tôi đã tìm hiểu để đảm bảo rằng điều này không chỉ là một lỗi lẫn lộn với một người khác,” người phát ngôn nói, lưu ý rằng họ đã nghiên cứu các bản báo cáo nhưng không thể tìm ra lý do vì sao trí tuệ nhân tạo lại dựng lên câu chuyện giết trẻ em.
Các mô hình ngôn ngữ lớn như mô hình AI cơ sở của ChatGPT về cơ bản là dự đoán từ tiếp theo trên một tỷ mức lớn scale, vì vậy có thể chúng ta có thể giả định rằng các bộ dữ liệu được sử dụng để huấn luyện công cụ chứa rất nhiều câu chuyện về giết con mà ảnh hưởng đến lựa chọn từ ngữ trong câu trả lời cho một câu hỏi về một người được đặt tên.
Cho dù lý do là gì, rõ ràng những đầu ra như vậy hoàn toàn không chấp nhận được.
Quan điểm của Noyb cũng là hành vi này vi phạm luật bảo vệ dữ liệu EU. Và trong khi OpenAI hiển thị một minh bạch nhỏ ở dưới màn hình nói rằng “ChatGPT có thể gặp lỗi. Kiểm tra thông tin quan trọng,” thì họ nói rằng điều này không thể làm cho nhà phát triển AI thoát khỏi trách nhiệm theo GDPR không tạo ra thông tin sai lệch đáng kể về người mà mình đầu tiên.
OpenAI đã được liên hệ để trả lời khiếu nại.
Mặc dù khiếu nại GDPR này liên quan đến một cá nhân có tên, Noyb chỉ ra các trường hợp khác nơi ChatGPT tạo ra thông tin có hại về pháp lý - như người quân đội Úc nói rằng anh ta bị liên quan đến một scandal hối lộ và tham nhũng hoặc một nhà báo Đức đã bị gọi là kẻ lạm dụng trẻ em một cách sai lệch - cho thấy rằng đây không phải là một vấn đề cô lập cho công cụ AI.
Một điểm quan trọng cần lưu ý là, sau khi cập nhật mô hình AI cơ sở làm nên ChatGPT, Noyb cho biết chatbot đã ngừng tạo ra những thông tin sai lệch nguy hiểm về Hjalmar Holmen - một thay đổi mà họ liên kết với việc công cụ bây giờ tìm kiếm thông tin trên internet về những người khi được hỏi họ là ai (trước đó, một khoảng trống trong bộ dữ liệu của nó có thể, giả thiết là, đã khuyến khích nó tưởng tượng ra một câu trả lời vô cùng sai lầm như vậy).
Trong các bài kiểm tra của chúng tôi hỏi ChatGPT “ai là Arve Hjalmar Holmen?” ChatGPT ban đầu trả lời của chúng tôi với một kết hợp hơi lạ với việc hiển thị một số bức ảnh của các người khác nhau, có vẻ như được lấy từ các trang web bao gồm Instagram, SoundCloud và Discogs, cùng với văn bản khẳng định rằng không “tìm thấy bất kỳ thông tin” về một cá nhân có tên như vậy (xem ảnh chụp màn hình của chúng tôi dưới đây). Lần thứ hai đã xuất hiện một câu trả lời xác định Arve Hjalmar Holmen là “một nhạc sĩ và nhà sáng tác người Na Uy” với các album bao gồm “Honky Tonk Inferno.”

Mặc dù các thông tin sai lệch được tạo ra bởi ChatGPT về Hjalmar Holmen dường như đã ngừng, cả Noyb và Hjalmar Holmen vẫn lo lắng rằng thông tin không chính xác và phỉ báng về anh ta có thể vẫn được giữ lại trong mô hình AI.
“Thêm một minh bạch rằng bạn không tuân thủ luật không làm cho luật biến mất,” Kleanthi Sardeli, một luật sư bảo vệ dữ liệu khác tại Noyb, lưu ý trong một tuyên bố. “Các công ty AI cũng không thể chỉ ‘giấu’ thông tin sai lầm khỏi người dùng trong khi họ vẫn xử lý thông tin sai lầm nội bộ.”
“Các công ty AI nên dừng lại như là GDPR không áp dụng đối với họ, khi thực tế nó áp dụng,” bà thêm. “Nếu những ảo giác không dừng lại, người ta có thể dễ dàng bị hại danh tiếng.”
Noyb đã nộp khiếu nại chống lại OpenAI với cơ quan bảo vệ dữ liệu Na Uy - và hy vọng cơ quan giám sát sẽ quyết định mình có thẩm quyền để điều tra, vì Noyb đang nhắm vào khiếu nại đến thực thể của OpenAI tại Mỹ, lập luận rằng văn phòng Ireland của họ không phải là người duy nhất chịu trách nhiệm về các quyết định sản phẩm ảnh hưởng đến người châu Âu.
Tuy nhiên, một khiếu nại GDPR do Noyb hỗ trợ trước OpenAI, được nộp vào Áo vào tháng 4 năm 2024, đã được trả về Ireland DPC vì một thay đổi được OpenAI thực hiện vào đầu năm đó để đặt tên cho bộ phận Ireland của mình là nhà cung cấp dịch vụ ChatGPT cho người dùng khu vực.
Khiếu nại đó đang ở đâu? Vẫn đang đặt trên bàn ở Ireland.
“Sau khi nhận được khiếu nại từ Cơ quan Giám đốc Áo vào tháng 9 năm 2024, DPC bắt đầu xử lý chính thức khiếu nại và vẫn đang tiếp tục,” Risteard Byrne, qu