Nvidia sẽ cung cấp cho Amazon Web Services một lượng lớn GPU đến năm 2027 khi nhà cung cấp đám mây này tăng cường hạ tầng AI và đáp ứng nhu cầu ngày càng tăng. AWS đã công bố đầu tuần này rằng họ dự định triển khai khoảng 1 triệu GPU Nvidia như một phần của việc mở rộng hạ tầng AI. Một giám đốc điều hành của Nvidia xác nhận với Reuters vào thứ Năm rằng việc triển khai dự kiến sẽ kéo dài đến cuối năm 2027. Bắt đầu từ năm nay trên các khu vực đám mây toàn cầu của AWS, nó sẽ được triển khai cùng với việc mở rộng hợp tác với Nvidia về mạng lưới và các hạ tầng khác để xây dựng hệ thống “có khả năng lý luận, lập kế hoạch và hành động tự động trong các quy trình phức tạp,” AWS cho biết, nhấn mạnh đến công việc của họ về hệ thống AI có khả năng hành động tự chủ.
AWS tiếp tục phát triển chip AI cho cả huấn luyện và suy luận. Sự hợp tác này cho thấy nhu cầu có thể đang chuyển dịch trong toàn bộ hệ thống AI, trong khi phần hoạt động ngày càng lớn dường như liên quan đến việc chạy các mô hình trong dịch vụ trực tiếp. Thỏa thuận này diễn ra trong bối cảnh các công tố viên Mỹ theo đuổi vụ kiện cáo buộc Nvidia buôn lậu chip sang Trung Quốc, đặt ra sự giám sát mới đối với nguồn cung và kiểm soát toàn cầu của công ty. Kể từ năm 2022, các chip tiên tiến nhất của Nvidia đã bị kiểm soát chặt chẽ như một phần của chiến lược rộng lớn của Mỹ nhằm hạn chế tiến bộ của Trung Quốc trong lĩnh vực tính toán cao cấp và AI.
Sự phát triển gần đây có thể làm rộng hơn khoảng cách đó. Thay đổi về tốc độ Các nhà quan sát cho rằng cấu trúc của thỏa thuận cung cấp manh mối về nơi nhu cầu đang tăng trưởng và cách hạ tầng cơ sở đang thay đổi với tốc độ ngày càng nhanh. “Nvidia đang trở thành lớp hạ tầng dưới các nhà cung cấp đám mây, không chỉ là nhà cung cấp chip cho họ,” Dermot McGrath, đồng sáng lập của studio chiến lược và tăng trưởng ZenGen Labs, nói với Decrypt. Các chip trong thỏa thuận hướng tới việc vận hành các mô hình AI quy mô lớn, tập trung vào giảm chi phí sử dụng, McGrath nói, lưu ý rằng suy luận hiện chiếm khoảng hai phần ba của tính toán AI, tăng từ khoảng một phần ba vào năm 2023. Thị trường cho các chip tập trung vào suy luận dự kiến sẽ vượt quá 50 tỷ USD vào năm 2026, ông bổ sung, trích dẫn ước tính của Deloitte. AWS có thể sử dụng cả chip Nvidia và chip riêng của họ trong cùng một hệ thống, mang lại nhiều lựa chọn hơn cho khách hàng so với các đối thủ giữ kín nguồn cung của họ, McGrath giải thích, thêm rằng sự linh hoạt này “là điểm khác biệt.” “Bây giờ Nvidia đang làm điều tương tự ở một lớp thấp hơn, với mạng lưới và kiến trúc rack thay vì mô hình lập trình,” ông nói. Chip suy luận là bộ xử lý được thiết kế để chạy các mô hình AI đã huấn luyện trong thời gian thực, thay vì cần huấn luyện lại.
Nhu cầu suy luận “đang thúc đẩy các cam kết dài hạn” cho nhiều sức mạnh tính toán hơn, và đang tạo ra mối liên kết chặt chẽ hơn giữa các nhà cung cấp đám mây và nhà sản xuất chip, Pichapen Prateepavanich, chiến lược gia chính sách và sáng lập công ty hạ tầng Gather Beyond, nói với Decrypt. “Các nhà cung cấp đám mây muốn độc lập lâu dài, nhưng trong ngắn hạn họ cần Nvidia duy trì tính cạnh tranh,” cô nói, lưu ý cách điều này tạo ra một động thái nơi hợp tác và cạnh tranh diễn ra cùng lúc. Tuy nhiên, quyền kiểm soát hạ tầng AI cũng đang thay đổi. Điều đang diễn ra là một “đảo ngược hạ tầng,” Berna Misa, đối tác trong các thương vụ tại Boardy Ventures, một quỹ đầu tư dẫn đầu bởi AI, nói với Decrypt. Nvidia “đang tích hợp toàn bộ hệ thống của mình trên tính toán, mạng lưới và suy luận trong các trung tâm dữ liệu của AWS, nơi đã vận hành thiết bị độc quyền trong nhiều năm,” cô nói. Nhưng trong khi AWS đang phát triển chip AI riêng của mình, điều này “không thay đổi phép tính,” cô giải thích, lưu ý rằng suy luận dựa vào nhiều thành phần trong toàn bộ hệ thống, phần lớn trong số đó do Nvidia cung cấp. “Khi bạn đi sâu vào hệ thống của khách hàng, chi phí chuyển đổi và lớp ngữ cảnh xuất phát từ đó trở thành rào cản,” cô nói.