Google Ironwood TPU: Hiệu năng gấp 10 lần + Bốn đối tác cùng đối đầu Nvidia

ChainNewsAbmedia

Theo các báo cáo chuyên sâu của Bloomberg và thông báo chính thức từ Google, Google đã chính thức mở rộng danh mục chip AI do tự phát triển vào ngày 22 tháng 4: Ironwood (thế hệ TPU thứ bảy) chuyên cho suy luận được cung cấp đầy đủ trên Google Cloud, đồng thời khởi động hợp tác thiết kế thế hệ tiếp theo với bốn đối tác Broadcom, MediaTek, Marvell, Intel. Mục tiêu là dùng chuỗi cung ứng chip tùy chỉnh để thách thức vị trí thống trị của Nvidia trên thị trường năng lực tính toán AI.

Ironwood: Thế hệ TPU thứ bảy, lần đầu tiên được thiết kế riêng cho suy luận

Ironwood là sản phẩm thế hệ thứ bảy trong dòng TPU của Google và cũng là chip chuyên dụng cho suy luận đầu tiên theo chiến lược “tách nhánh huấn luyện và suy luận”. Các thông số mà Google công bố: hiệu năng đỉnh trên mỗi chip đạt gấp 10 lần TPU v5p, trang bị bộ nhớ 192GB HBM3E, băng thông bộ nhớ đạt 7,2 TB/s, một superpod có thể mở rộng lên tới 9.216 chip Ironwood làm mát bằng chất lỏng, tổng khối lượng tính toán FP8 đạt 42,5 exaflops.

Google cho biết chính thức rằng Ironwood đã “mở hoàn toàn cho khách hàng sử dụng Google Cloud”, và lượng hàng dự kiến xuất xưởng trong năm nay sẽ đạt “quy mô hàng triệu chip”. Anthropic đã cam kết sử dụng tối đa 1 triệu chip Ironwood TPU, còn Meta thì ký “hợp đồng nhiều năm trị giá hàng chục tỷ USD” để sử dụng TPU thông qua Google Cloud.

Phân công bốn đối tác: huấn luyện thuộc Broadcom, suy luận thuộc MediaTek

Chuỗi cung ứng chip thế hệ tiếp theo của Google được phân công rõ ràng như sau:

Đối tác Mã hiệu Vai trò Điểm nhấn Broadcom Sunfish Huấn luyện chuyên dụng Kế thừa quan hệ hợp tác TPU hiện có, dẫn dắt các nút huấn luyện quy mô lớn MediaTek (聯發科) Zebrafish Suy luận chuyên dụng Khẳng định chi phí thấp hơn phương án của Broadcom 20–30% Marvell Đang đàm phán Đơn vị xử lý bộ nhớ (MPU) + thêm TPU suy luận Tối ưu cho HBM và inference Intel Chưa công bố Tham gia thiết kế Tăng cường phân tán chuỗi cung ứng

Đây là lần đầu tiên trong ngành AI xuất hiện mô hình “bốn đối tác song song, phân công rõ ràng giữa huấn luyện và suy luận”. Google tránh sự phụ thuộc cấu trúc vào một nhà cung cấp duy nhất của Nvidia bằng cách phân tán rủi ro IP và đàm phán giá cạnh tranh. Lộ trình mở rộng đến cuối năm 2027 với TPU v8, được sản xuất trên quy trình 2nm của TSMC.

Ý nghĩa chiến lược: Thách thức Nvidia không phải bằng một chip duy nhất, mà bằng chuỗi cung ứng

Trong ba năm qua, thị trường chip AI gần như do Nvidia độc quyền, với hệ sinh thái phần mềm CUDA và hai lớp “hào lũy” từ các chip H100/GB200. Chiến lược của Ironwood của Google và nhóm bốn đối tác không nhằm mục tiêu “vượt trội một điểm đơn lẻ về thông số”, mà là sao chép logic “nền tảng được tiêu chuẩn hóa + mua sắm đa khách hàng” mà Nvidia đã áp dụng trong ngành—để TPU không chỉ phục vụ cho Google, mà còn trở thành một lựa chọn năng lực tính toán thương mại có thể dùng chung cho các công ty AI lớn như Anthropic, Meta.

Ý nghĩa của việc Anthropic cam kết 1 triệu chip TPU đặc biệt quan trọng: đây là cam kết năng lực tính toán lớn nhất ngoài Nvidia của một công ty AI đơn lẻ. Nó bổ sung lẫn nhau với cam kết 5GW/100 tỷ AWS mà Anthropic đạt được cùng Amazon—một bên gắn với AWS Trainium, một bên gắn với Google TPU. Với chiến lược “hai chip tùy chỉnh”, Anthropic giảm sự phụ thuộc vào Nvidia. Meta cũng là lần đầu công khai đưa TPU vào các khối lượng công việc huấn luyện/suy luận AI của chính mình, tạo ra một tín hiệu khác.

Phản ứng thị trường và liên kết với ngành

Trước khi tiết lộ lần này, MediaTek đã từng được xem như “người hưởng lợi từ chip tùy chỉnh của Google”. Việc lộ mã hiệu Zebrafish là lần đầu tiên đưa MediaTek trực tiếp vào danh sách đối tác thiết kế chip suy luận của Google. Đây là bước mở rộng theo tuyến truyện về “liên minh ngoài Nvidia” gần đây, gồm AMD × GlobalFoundries quang tử silicon và Marvell × Google MPU.

Nvidia ở cùng thời điểm vẫn có GB200 và nền tảng Rubin thế hệ tiếp theo để chống đỡ, nhưng tổ hợp năng lực tính toán phía khách hàng đang chuyển từ “toàn bộ Nvidia” sang mô hình ba trục song song “Nvidia + TPU + AWS Trainium”. Điều này cũng đồng nghĩa với việc năng lực sản xuất 2nm của TSMC sẽ đứng trước tình trạng Google, Nvidia, Apple và Amazon—bốn khách hàng lớn—đều đang xếp hàng, và sức mạnh đàm phán giá với nhà máy gia công bán dẫn tiếp tục tăng lên.

Bài viết “Google Ironwood TPU: Hiệu năng gấp 10 lần + bốn đối tác chống lại Nvidia” lần đầu tiên xuất hiện trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Cohere Mua Lại Công Ty AI của Đức Aleph Alpha, Nhận Được $600M Đầu Tư để Mở Rộng Tại Châu Âu

Tin tức Gate, ngày 24 tháng 4 — Công ty AI của Canada Cohere đã công bố kế hoạch mua lại công ty AI của Đức Aleph Alpha để củng cố sự hiện diện của mình tại châu Âu. Schwarz Group, một nhà đầu tư hậu thuẫn của Aleph Alpha, dự kiến sẽ đầu tư $600 triệu USD vào vòng gọi vốn Series E của Cohere. Vòng gọi vốn dự kiến sẽ được hoàn tất vào năm 202

GateNews10phút trước

Xpeng, Xiaomi dẫn đầu làn sóng AI trên xe tại Triển lãm Ô tô Bắc Kinh

Tin tức cổng, 24 tháng 4 — Các nhà sản xuất ô tô Trung Quốc đã trưng bày các hệ thống AI nâng cao trên xe tại Triển lãm Ô tô Bắc Kinh vào ngày 24 tháng 4, khi quốc gia này đẩy nhanh chiến lược AI Plus và tìm kiếm mức độ độc lập cao hơn khỏi các chất bán dẫn nước ngoài. Xpeng đã trình diễn tính năng đỗ xe điều khiển bằng giọng nói cho phép người lái xe “

GateNews50phút trước

Cựu kỹ sư Seed của ByteDance: Lượt lặp AI của ByteDance mất sáu tháng so với ba tháng của Google

Tin tức Cổng, ngày 24 tháng 4 — Zhang Chi, cựu kỹ sư tại đội Seed của ByteDance và hiện là trợ giảng tại Đại học Bắc Kinh, đã tiết lộ trên podcast "Into Asia" rằng ByteDance cần khoảng sáu tháng để hoàn thành một chu kỳ đầy đủ huấn luyện mô hình ngôn ngữ lớn (pretraining

GateNews1giờ trước

Kỹ sư OpenAI Clive Chan Thách thức Khuyến nghị Phần cứng của V4, Trích dẫn Lỗi và Tính Mơ hồ so với V3

Tin tức cổng Gate, ngày 24 tháng 4 — Kỹ sư OpenAI Clive Chan đã đưa ra những phản đối chi tiết đối với chương khuyến nghị phần cứng trong báo cáo kỹ thuật V4, gọi chương này là "đáng ngạc nhiên là tầm thường và dễ gây lỗi" so với phiên bản V3 được ca ngợi. Hướng dẫn phần cứng của V3, bao gồm các buổi Q&A

GateNews1giờ trước

Naver Ra Mắt Bản Beta AI Tab Khi Google Gemini Bước Vào Thị Trường Tìm Kiếm Tại Hàn Quốc

Tin tức Cổng, ngày 24 tháng 4 — Naver đã công bố việc bắt đầu thử nghiệm beta kín cho AI Tab, tính năng tìm kiếm hội thoại mới của hãng, sau khi Google ra mắt Gemini trên Chrome tại Hàn Quốc. AI Tab sẽ xuất hiện cùng với các tab tìm kiếm hiện có của Naver, cung cấp cho người dùng một không gian riêng cho các truy vấn mang tính hội thoại

GateNews1giờ trước

Ấn Độ Tuyển dụng Kỹ sư AI Bùng nổ 59,5%, Mở rộng ra Ngoài Các Trung tâm Công nghệ

Báo cáo Thị trường Lao động AI của LinkedIn năm 2026, được phát hành vào ngày 24 tháng 4, cho thấy việc tuyển dụng kỹ sư AI tại Ấn Độ đã tăng 59,5% so với cùng kỳ năm trước, đánh dấu tốc độ nhanh nhất trong số các thị trường được nền tảng này nghiên cứu. Sự tăng trưởng được thúc đẩy bởi nhu cầu lan rộng vượt ra ngoài các trung tâm công nghệ đã được thiết lập. Các thành phố bao gồm

CryptoFrontier2giờ trước
Bình luận
0/400
Không có bình luận