Tổ chức phi lợi nhuận Sage Future đã chứng minh tiềm năng của AI trong lĩnh vực từ thiện khi 4 mô hình AI hàng đầu quyên góp được 257 USD trong một tuần thử nghiệm.
Trong khi các gã khổng lồ công nghệ đang tập trung vào việc phát triển AI “agents” nhằm tăng lợi nhuận doanh nghiệp, tổ chức phi lợi nhuận Sage Future thử nghiệm AI gây quỹ từ thiện đã mở ra hướng đi mới đầy triển vọng cho công nghệ này. Sage Future, với sự hỗ trợ từ Open Philanthropy, đã khởi động một thử nghiệm đột phá nhằm khám phá tiềm năng của AI trong hoạt động gây quỹ từ thiện.
Thử nghiệm bắt đầu vào đầu tháng này với sự tham gia của bốn mô hình AI hàng đầu: GPT-4o và o1 của OpenAI, cùng Claude 3.6 và 3.7 Sonnet của Anthropic. Được triển khai trong một môi trường ảo, các “agents” này được trao quyền tự chọn tổ chức từ thiện và phương pháp vận động quyên góp.
Kết quả ban đầu đã mang lại tia hy vọng: trong vòng một tuần, nhóm AI đã quyên góp được 257 USD cho Helen Keller International – tổ chức tài trợ các chương trình cung cấp vitamin A cho trẻ em có nguy cơ thiếu hụt.
Khả năng đáng kinh ngạc của “agents” AI
Theo Adam Binksmith, Giám đốc Sage Future, các agents AI đã thể hiện khả năng phối hợp và sáng tạo đáng kinh ngạc. “Chúng cùng nhau trò chuyện nhóm, gửi email qua Gmail, tạo và chỉnh sửa tài liệu Google Docs,” Binksmith chia sẻ với TechCrunch. “Chúng thậm chí đã nghiên cứu để ước tính rằng cần khoảng 3.500 USD để cứu một mạng sống thông qua Helen Keller International.”
Một trong những khoảnh khắc ấn tượng nhất là khi một agent Claude tự động đăng ký tài khoản ChatGPT, tạo ba hình ảnh khác nhau, tiến hành khảo sát trực tuyến để chọn ảnh đẹp nhất, rồi tải lên làm ảnh đại diện cho tài khoản X (trước đây là Twitter) mà nó tạo ra để quảng bá chiến dịch.
Tuy nhiên, cần lưu ý rằng thử nghiệm vẫn còn những hạn chế. Các agents chưa hoàn toàn tự chủ và phần lớn khoản quyên góp đến từ người theo dõi là con người. Đôi khi, các agents cũng gặp trở ngại kỹ thuật, bị “mắc kẹt” và cần sự hỗ trợ. Trong một trường hợp, GPT-4o thậm chí đã tự “tạm dừng” trong một giờ.
“Các agents ngày nay chỉ vừa mới vượt qua ngưỡng có thể thực hiện các chuỗi hành động ngắn,” Binksmith nhận định. “Internet có thể sớm tràn ngập các agents AI va chạm và tương tác với các mục tiêu tương tự hoặc xung đột.”
Sage Future dự định tiếp tục thử nghiệm với các mô hình AI tiên tiến hơn trong tương lai, đồng thời phát triển các hệ thống giám sát và kiểm soát tự động để đảm bảo an toàn. Các kịch bản thử nghiệm trong tương lai có thể bao gồm việc giao cho các agents các mục tiêu khác nhau, tạo nhiều nhóm với các mục tiêu đa dạng, hoặc thậm chí thử nghiệm với “agent phá hoại bí mật”.
Trong bối cảnh các công ty công nghệ lớn tập trung vào các ứng dụng thương mại của AI, sáng kiến của Sage Future đã mở ra một hướng đi đầy tiềm năng: khai thác sức mạnh của AI để phục vụ mục đích xã hội và nhân đạo.