Các nghiên cứu cho thấy mô hình ngôn ngữ lớn (LLM) như Llama của Meta chưa thể tự học kỹ năng mới, xác suất AI đe dọa loài người là rất thấp.
Tại hội nghị thường niên của Hiệp hội Ngôn ngữ Máy tính, các nhà nghiên cứu từ Đại học Bath và Đại học Darmstadt đã trình bày một báo cáo gây chú ý, cho rằng các mô hình ngôn ngữ lớn (LLM) như dòng Llama của Meta Platforms Inc. không có khả năng tự học hoặc lĩnh hội kỹ năng mới nếu thiếu sự hướng dẫn rõ ràng.
Phát hiện này thách thức quan niệm phổ biến về khả năng tự học vượt trội của AI và có thể tác động đáng kể đến hướng phát triển cũng như đầu tư vào lĩnh vực này.
Nghiên cứu được thực hiện thông qua hàng nghìn thí nghiệm nhằm kiểm tra khả năng hoàn thành nhiệm vụ mới của một số mô hình AI, bao gồm cả việc trả lời các câu hỏi phức tạp về các chủ đề nằm ngoài phạm vi dữ liệu huấn luyện ban đầu.
Kết quả cho thấy, mặc dù các mô hình có thể tạo ra câu trả lời phù hợp với hướng dẫn, nhưng chúng không thể thực sự hiểu và nắm vững các kỹ năng mới một cách độc lập. Nói cách khác, chúng chỉ có thể “bắt chước” dựa trên dữ liệu đã học chứ không thể “sáng tạo” kiến thức mới.
Harish Tayyar Madabushi, nhà khoa học máy tính tại Đại học Bath và đồng tác giả nghiên cứu, khẳng định: “Nghiên cứu cho thấy nỗi sợ một mô hình AI sẽ tự ý hoạt động, tạo ra điều gì đó bất ngờ và nguy hiểm là không có cơ sở”.
Ông cho rằng những quan niệm sai lầm về khả năng tự học của AI, đặc biệt là khả năng tự phát triển thành mối đe dọa cho nhân loại, đang cản trở sự tiếp nhận và ứng dụng rộng rãi của công nghệ này.
AI đe dọa nhân loại: Sự thật hay chiêu trò?
Tuy nhiên, nghiên cứu này cũng có những hạn chế. Các nhà nghiên cứu chưa kiểm tra các mô hình mới nhất và mạnh nhất từ các công ty như OpenAI và Anthropic, khiến việc khái quát hóa kết quả cho toàn bộ lĩnh vực AI cần được xem xét thận trọng.
Tuy nhiên, đây không phải là nghiên cứu đầu tiên chỉ ra rằng công nghệ AI tạo sinh hiện nay chưa phải là mối đe dọa hiện hữu cho nhân loại. Trên thực tế, việc phóng đại nguy cơ này có thể dẫn đến những chính sách không phù hợp, cản trở sự phát triển và ứng dụng AI vào các lĩnh vực thiết thực.
Trong một bài bình luận trên tạp chí Scientific American năm ngoái, chuyên gia đạo đức AI Alex Hanna và giáo sư ngôn ngữ học Emily Bender đã cáo buộc các phòng thí nghiệm AI của các tập đoàn công nghệ đang cố tình “vẽ” ra những kịch bản thảm khốc, giả tưởng về AI nhằm tác động đến cơ quan quản lý.
Họ dẫn chứng lời khai của CEO OpenAI, Sam Altman, trong phiên điều trần trước Quốc hội Mỹ vào tháng 5/2023, khi ông ám chỉ – mà không đưa ra bằng chứng cụ thể rằng các công cụ AI tạo sinh có thể “gây ra hậu quả nghiêm trọng”.
Hanna và Bender kêu gọi công chúng và các nhà hoạch định chính sách nên tập trung vào những tác động tiêu cực hiện hữu của AI, thay vì bị cuốn vào vòng xoáy cường điệu do các tập đoàn công nghệ tạo ra.
Lời kêu gọi này càng trở nên cấp thiết trong bối cảnh các nhà đầu tư tiếp tục đổ hàng tỷ USD vào AI tạo sinh, đẩy vòng xoáy cường điệu lên đến đỉnh điểm. Lợi ích của các công ty phát triển AI và những người ủng hộ họ không phải lúc nào cũng đồng nhất với lợi ích của cộng đồng.
Mặc dù AI tạo hình có thể chưa gây ra sự tuyệt chủng của nhân loại, nhưng nó đang gây ra những tác hại cụ thể, như sự lan tràn của phim khiêu dâm deepfake trái phép, các vụ bắt giữ sai lầm do nhận diện khuôn mặt và tình trạng bóc lột lao động của những người đánh dấu dữ liệu với mức lương thấp.