Ủy ban Bảo vệ Dữ liệu Ireland đang điều tra về việc tuân thủ “Quy định Bảo vệ Dữ liệu Chung” khi sử dụng thông tin cá nhân để huấn luyện AI của Google tại EU.
Theo Techcrunch ngày 12/9, Ủy ban Bảo vệ Dữ liệu Ireland (DPC), cơ quan giám sát việc tuân thủ Quy định Bảo vệ Dữ liệu Chung (GDPR) của Google tại EU, đang điều tra liệu Google có thực hiện Đánh giá Tác động Bảo vệ Dữ liệu (DPIA) trước khi sử dụng dữ liệu cá nhân để huấn luyện AI hay không.
DPIA là một quy trình bắt buộc theo GDPR, nhằm đánh giá rủi ro đối với quyền lợi và tự do của cá nhân khi thông tin của họ được sử dụng cho các mục đích xử lý dữ liệu có nguy cơ cao, bao gồm cả việc huấn luyện AI.
Cuộc điều tra tập trung vào cách Google phát triển một số công cụ AI tạo ra nội dung, bao gồm mô hình ngôn ngữ lớn (LLM) PaLM2, được ra mắt tại hội nghị nhà phát triển I/O năm ngoái. PaLM2 là nền tảng cho nhiều công cụ AI của Google như chatbot Gemini (trước đây là Bard) và các tính năng tìm kiếm trên web sử dụng AI.
Nếu Google bị phát hiện vi phạm GDPR, DPC có thể áp dụng mức phạt lên đến 4% doanh thu toàn cầu hàng năm của Alphabet, công ty mẹ của Google.
Mối lo ngại về quyền riêng tư
Các mô hình ngôn ngữ lớn như PaLM2 thường yêu cầu lượng dữ liệu khổng lồ để huấn luyện, bao gồm cả thông tin cá nhân nhạy cảm. Thông tin này có thể được lấy từ các nguồn công khai trên Internet hoặc thu thập trực tiếp từ người dùng, dẫn đến nhiều vấn đề pháp lý liên quan đến quyền riêng tư và bản quyền.
Nhiều công ty phát triển AI như OpenAI, Meta, và thậm chí cả nền tảng mạng xã hội X (trước đây là Twitter) thuộc sở hữu của Elon Musk, đều đã đối mặt với các khiếu nại liên quan đến GDPR về việc sử dụng dữ liệu người dùng để huấn luyện AI.
Google, giống như nhiều công ty khác, không công khai minh bạch về nguồn dữ liệu được sử dụng để huấn luyện các công cụ AI. Tuy nhiên, phát ngôn viên của Google, Jay Stoll, khẳng định: “Chúng tôi coi trọng nghĩa vụ của mình theo GDPR và sẽ hợp tác chặt chẽ với DPC để giải đáp các thắc mắc.”
Cuộc điều tra của DPC là một phần trong nỗ lực rộng lớn hơn của các cơ quan bảo vệ dữ liệu tại EU nhằm đảm bảo rằng các công ty công nghệ tuân thủ các quy định về quyền riêng tư khi phát triển các hệ thống AI.
Cơ quan này nhấn mạnh rằng DPIA đóng vai trò quan trọng trong việc đảm bảo quyền lợi và tự do của cá nhân được bảo vệ khi dữ liệu cá nhân được xử lý với rủi ro cao. Nếu Google không thực hiện DPIA trước khi xử lý dữ liệu của người dùng EU để phát triển PaLM2, công ty có thể đối mặt với các hình phạt nghiêm trọng.
Hiện tại, Google vẫn chưa đưa ra câu trả lời chính thức về vấn đề này.