Gã khổng lồ mạng xã hội Meta đang đẩy mạnh chiến lược phát triển phần cứng nội bộ với khoản đầu tư dự kiến 65 tỷ USD năm 2025.
Meta đang âm thầm thử nghiệm một loại chip AI tự phát triển nhằm huấn luyện các mô hình trí tuệ nhân tạo, đánh dấu bước đi chiến lược quan trọng trong nỗ lực giảm sự phụ thuộc vào các nhà cung cấp phần cứng bên ngoài, đặc biệt là Nvidia – công ty hiện đang thống trị thị trường GPU cho AI.
Theo nguồn tin từ Reuters, chip mới của Meta được thiết kế đặc biệt để tối ưu hóa các tác vụ huấn luyện AI phức tạp và đang được sản xuất thông qua hợp tác với TSMC (Taiwan Semiconductor Manufacturing Company) – nhà sản xuất chip hàng đầu của Đài Loan. Hiện tại, Meta đang triển khai một “mô hình thử nghiệm nhỏ” với kế hoạch mở rộng quy mô sản xuất nếu kết quả thử nghiệm đáp ứng được kỳ vọng.
Đây không phải là lần đầu tiên Meta thử nghiệm phát triển chip AI tùy chỉnh. Tuy nhiên, các nỗ lực trước đây của công ty chủ yếu tập trung vào chip để vận hành (inference) các mô hình AI đã được huấn luyện, chứ không phải để huấn luyện (training) các mô hình từ đầu – quá trình đòi hỏi sức mạnh tính toán khổng lồ và thường chiếm phần lớn chi phí trong phát triển AI.
Cuộc đua của Meta giảm phụ thuộc vào Nvidia
Thông tin này xuất hiện trong bối cảnh các gã khổng lồ công nghệ đang chạy đua phát triển chip AI nội bộ. Google đã có TPU (Tensor Processing Unit), Microsoft đang phát triển chip Azure Maia, trong khi Amazon cũng đang đẩy mạnh dòng chip AWS Graviton và Trainium cho điện toán đám mây và AI.
Meta dự kiến chi tiêu vốn lên tới 65 tỷ USD trong năm 2025, phần lớn dành cho việc mua GPU của Nvidia phục vụ cơ sở hạ tầng AI. Mặc dù vậy, một số dự án chip trước đây của Meta đã bị hủy bỏ hoặc thu hẹp do không đạt được hiệu suất mong muốn, gây ra không ít hoài nghi về khả năng thành công của sáng kiến mới này.
“Việc Meta tự phát triển chip AI là một nước đi chiến lược trong dài hạn,” theo nhận định của một chuyên gia phân tích ngành bán dẫn. “Ngay cả khi chỉ thay thế được một phần nhỏ trong cơ sở hạ tầng AI của họ, công ty vẫn có thể tiết kiệm hàng tỷ đô la mỗi năm.”
Giám đốc điều hành Mark Zuckerberg đã nhiều lần nhấn mạnh tầm quan trọng của AI đối với tương lai của Meta, với các khoản đầu tư khổng lồ vào nghiên cứu và phát triển mô hình ngôn ngữ lớn Llama cũng như các công nghệ AI tạo sinh khác. Việc phát triển chip nội bộ phù hợp với chiến lược dài hạn này, cho phép Meta có nhiều quyền kiểm soát hơn đối với chuỗi cung ứng AI của mình.
Tuy nhiên, việc phát triển chip huấn luyện AI hiệu quả là một thách thức kỹ thuật cực kỳ phức tạp. Nvidia đã dành hơn một thập kỷ để phát triển các kiến trúc GPU chuyên dụng cho AI cùng với hệ sinh thái phần mềm CUDA mạnh mẽ, tạo ra rào cản gia nhập thị trường đáng kể.