Doanh thu ngành AI đã giảm mạnh trong quý 2 năm 2024 do sự quan tâm của người tiêu dùng đối với chatbot sụt giảm, cùng với đó là những lo ngại ngày càng gia tăng về độ chính xác của công nghệ này.
Ngành công nghiệp trí tuệ nhân tạo (AI) đang trải qua giai đoạn khó khăn khi doanh thu sụt giảm đáng kể trong quý 2/2024. Nguyên nhân chính được cho là do sự quan tâm của người dùng đối với chatbot suy giảm, bắt nguồn từ lo ngại về độ tin cậy của nội dung do AI tạo ra, đặc biệt là từ các mô hình ngôn ngữ lớn (LLM).
Một nghiên cứu mới đây với tựa đề “Các mô hình ngôn ngữ lớn và có thể hướng dẫn trở nên kém tin cậy hơn” đăng trên tạp chí Nature Scientific đã nhấn mạnh xu hướng đáng lo ngại này: khi các mô hình ngôn ngữ trở nên phức tạp hơn, chúng lại mắc nhiều sai lầm hơn.
Lexin Zhou, một trong những tác giả của nghiên cứu, giải thích rằng các mô hình AI ngày càng được tối ưu hóa để tạo ra các phản hồi có vẻ hợp lý thay vì chính xác. Hiện tượng này, được gọi là “ảo giác AI,” xảy ra khi chatbot cung cấp thông tin sai lệch nhưng có vẻ thuyết phục, và vấn đề này trở nên tồi tệ hơn theo thời gian.
Zhou cũng chỉ ra rằng việc dựa vào các mô hình cũ để huấn luyện các mô hình mới đang dẫn đến “sự sụp đổ mô hình,” khi chất lượng của các phản hồi từ AI giảm sút qua các thế hệ.
Giải pháp cho vấn đề “ảo giác AI”
Nhiều chuyên gia trong lĩnh vực AI đã cảnh báo về việc quá phụ thuộc vào nội dung do AI tạo ra mà không kiểm tra kỹ lưỡng tính chính xác. Mathieu Roy, một biên tập viên và nhà văn, nhấn mạnh tầm quan trọng của việc người dùng tự xác minh thông tin do AI cung cấp.
“Mặc dù AI có thể hữu ích cho nhiều nhiệm vụ, những người dùng cần phải kiểm tra thông tin mà họ nhận được từ các mô hình AI”, Roy khuyến cáo. “Việc kiểm tra tính xác thực nên là một bước bắt buộc khi sử dụng công cụ AI.”
Vấn đề “ảo giác AI” đã xuất hiện nhiều lần, gây ra nhiều sự cố đáng chú ý. Vào tháng 2/2024, nền tảng AI của Google bị chỉ trích vì tạo ra những hình ảnh lịch sử không chính xác và mang tính phân biệt chủng tộc. Những sai sót này làm dấy lên lo ngại rằng các mô hình AI hiện tại chưa đủ khả năng xử lý tính chính xác và tính đại diện, mặc dù chúng được lập trình rất tiên tiến.
Trước những thách thức này, một số nhà lãnh đạo trong ngành đã đề xuất các giải pháp nhằm giảm tần suất lỗi của AI. CEO Jensen Huang của Nvidia gợi ý rằng các mô hình AI nên được yêu cầu thực hiện nghiên cứu sâu và cung cấp nguồn cho mỗi phản hồi của mình để cải thiện tính minh bạch. Tuy nhiên, mặc dù các biện pháp này đã được tích hợp vào nhiều hệ thống hiện có, vấn đề ảo giác AI vẫn tiếp diễn.
Gần đây, Matt Shumer, CEO của HyperWrite AI, đã công bố một mô hình 70 tỷ tham số sử dụng kỹ thuật “Tuning-Reflection”. Phương pháp này cho phép AI học hỏi từ những sai lầm của mình bằng cách phân tích các lỗi trước đó và cải thiện các phản hồi sau này. Shumer lạc quan rằng đây có thể là bước đột phá trong việc nâng cao độ chính xác của AI, nhưng hiệu quả thực sự vẫn còn phải chờ kiểm chứng.