Đội nhiệm vụ ChatGPT của EU cung cấp cái nhìn đầu tiên về việc làm sáng tỏ về việc tuân thủ quyền riêng tư của AI chatbot

Một nhóm nhiệm vụ bảo vệ dữ liệu đã dành hơn một năm để xem xét quy định về bảo vệ dữ liệu của Liên minh Châu Âu áp dụng cho Chatbot viral của OpenAI, ChatGPT, đã báo cáo kết luận sơ bộ vào thứ Sáu. Thông tin chính là nhóm làm việc của các cơ quan bảo vệ quyền riêng tư vẫn chưa quyết định về các vấn đề pháp lý quan trọng như sự hợp pháp và công bằng của việc xử lý của OpenAI.

Vấn đề này rất quan trọng vì hình phạt cho vi phạm quy định về bảo vệ riêng tư của khối đến 4% doanh thu hàng năm toàn cầu. Các cơ quan giám sát cũng có thể ra lệnh dừng việc xử lý không tuân thủ. Vì vậy — trong lý thuyết — OpenAI đang đối diện với rủi ro quy định đáng kể trong khu vực vào thời điểm luật chuyên biệt cho AI còn ít (và, ngay cả ở trường hợp của Liên minh Châu Âu, cần một thời gian dài để hoạt động đầy đủ).