MIT công bố kho dữ liệu ghi lại hơn 700 nguy cơ từ AI, hỗ trợ nghiên cứu và hoạch định chính sách quản lý công nghệ.
MIT vừa công bố một kho dữ liệu bao gồm hơn 700 nguy cơ liên quan đến trí tuệ nhân tạo (AI), được phân loại chi tiết theo yếu tố gây ra, lĩnh vực và tiểu lĩnh vực bị ảnh hưởng.
Đây là thành quả nghiên cứu của nhóm FutureTech thuộc MIT, được kỳ vọng sẽ trở thành công cụ hữu ích cho các nhà hoạch định chính sách, doanh nghiệp trong ngành AI, và giới học thuật trong việc hiểu và kiểm soát rủi ro từ công nghệ này, theo thông tin từ Techcrunch.
Kho lưu trữ này ra đời nhằm đáp ứng nhu cầu cấp thiết về nghiên cứu và phát triển AI an toàn.
Ông Peter Slattery, nhà nghiên cứu tại nhóm FutureTech của MIT và là người đứng đầu dự án, cho biết: “Nghiên cứu về rủi ro AI hiện nay còn phân mảnh và thiếu sự đồng thuận. Các khung tham chiếu hiện tại chỉ bao quát một phần nhỏ các rủi ro, điều này có thể dẫn đến hậu quả nghiêm trọng trong việc phát triển và quản lý công nghệ AI.”
Việc xây dựng kho lưu trữ có sự hợp tác của Đại học Queensland, tổ chức phi lợi nhuận Future of Life Institute, KU Leuven và công ty khởi nghiệp Harmony Intelligence.
Nhóm nghiên cứu đã phân tích hàng nghìn tài liệu để thu thập dữ liệu về các rủi ro AI, từ quyền riêng tư, bảo mật đến thông tin sai lệch và “ô nhiễm hệ sinh thái thông tin” do AI tạo ra.
Một nghiên cứu khác của nhóm cho thấy các khung tham chiếu hiện tại trung bình chỉ đề cập đến 34% trong số 23 tiểu lĩnh vực rủi ro mà họ xác định, thậm chí có khung chỉ bao gồm chưa đến 20%. Điều này gây khó khăn cho quá trình soạn thảo luật điều chỉnh AI, chẳng hạn như Đạo luật AI của EU hay SB 1047 của California.
Giáo sư Neil Thompson, người đứng đầu phòng thí nghiệm FutureTech tại MIT, cho biết nhóm nghiên cứu dự định sử dụng kho lưu trữ này để đánh giá hiệu quả của các biện pháp ứng phó với rủi ro AI. “Chúng tôi dự định sử dụng kho lưu trữ để xác định những thiếu sót trong các phản ứng đối với các rủi ro AI, từ đó đưa ra các biện pháp khắc phục,” ông Thompson nói.
Kho lưu trữ nguy cơ AI của MIT là một bước tiến quan trọng trong nỗ lực kiểm soát rủi ro từ công nghệ này. Tuy nhiên, hiệu quả thực tế của nó còn phụ thuộc vào cách các bên liên quan sử dụng thông tin và liệu nó có thực sự thay đổi cách tiếp cận hiện tại đối với an toàn AI hay không. Câu hỏi này vẫn đang chờ lời giải đáp trong tương lai.