Google Ironwood TPU: Hiệu năng gấp 10 lần + Bốn đối tác cùng đối đầu Nvidia

ChainNewsAbmedia

Theo các báo cáo chuyên sâu của Bloomberg và thông báo chính thức từ Google, Google đã chính thức mở rộng danh mục chip AI do tự phát triển vào ngày 22 tháng 4: Ironwood (thế hệ TPU thứ bảy) chuyên cho suy luận được cung cấp đầy đủ trên Google Cloud, đồng thời khởi động hợp tác thiết kế thế hệ tiếp theo với bốn đối tác Broadcom, MediaTek, Marvell, Intel. Mục tiêu là dùng chuỗi cung ứng chip tùy chỉnh để thách thức vị trí thống trị của Nvidia trên thị trường năng lực tính toán AI.

Ironwood: Thế hệ TPU thứ bảy, lần đầu tiên được thiết kế riêng cho suy luận

Ironwood là sản phẩm thế hệ thứ bảy trong dòng TPU của Google và cũng là chip chuyên dụng cho suy luận đầu tiên theo chiến lược “tách nhánh huấn luyện và suy luận”. Các thông số mà Google công bố: hiệu năng đỉnh trên mỗi chip đạt gấp 10 lần TPU v5p, trang bị bộ nhớ 192GB HBM3E, băng thông bộ nhớ đạt 7,2 TB/s, một superpod có thể mở rộng lên tới 9.216 chip Ironwood làm mát bằng chất lỏng, tổng khối lượng tính toán FP8 đạt 42,5 exaflops.

Google cho biết chính thức rằng Ironwood đã “mở hoàn toàn cho khách hàng sử dụng Google Cloud”, và lượng hàng dự kiến xuất xưởng trong năm nay sẽ đạt “quy mô hàng triệu chip”. Anthropic đã cam kết sử dụng tối đa 1 triệu chip Ironwood TPU, còn Meta thì ký “hợp đồng nhiều năm trị giá hàng chục tỷ USD” để sử dụng TPU thông qua Google Cloud.

Phân công bốn đối tác: huấn luyện thuộc Broadcom, suy luận thuộc MediaTek

Chuỗi cung ứng chip thế hệ tiếp theo của Google được phân công rõ ràng như sau:

Đối tác Mã hiệu Vai trò Điểm nhấn Broadcom Sunfish Huấn luyện chuyên dụng Kế thừa quan hệ hợp tác TPU hiện có, dẫn dắt các nút huấn luyện quy mô lớn MediaTek (聯發科) Zebrafish Suy luận chuyên dụng Khẳng định chi phí thấp hơn phương án của Broadcom 20–30% Marvell Đang đàm phán Đơn vị xử lý bộ nhớ (MPU) + thêm TPU suy luận Tối ưu cho HBM và inference Intel Chưa công bố Tham gia thiết kế Tăng cường phân tán chuỗi cung ứng

Đây là lần đầu tiên trong ngành AI xuất hiện mô hình “bốn đối tác song song, phân công rõ ràng giữa huấn luyện và suy luận”. Google tránh sự phụ thuộc cấu trúc vào một nhà cung cấp duy nhất của Nvidia bằng cách phân tán rủi ro IP và đàm phán giá cạnh tranh. Lộ trình mở rộng đến cuối năm 2027 với TPU v8, được sản xuất trên quy trình 2nm của TSMC.

Ý nghĩa chiến lược: Thách thức Nvidia không phải bằng một chip duy nhất, mà bằng chuỗi cung ứng

Trong ba năm qua, thị trường chip AI gần như do Nvidia độc quyền, với hệ sinh thái phần mềm CUDA và hai lớp “hào lũy” từ các chip H100/GB200. Chiến lược của Ironwood của Google và nhóm bốn đối tác không nhằm mục tiêu “vượt trội một điểm đơn lẻ về thông số”, mà là sao chép logic “nền tảng được tiêu chuẩn hóa + mua sắm đa khách hàng” mà Nvidia đã áp dụng trong ngành—để TPU không chỉ phục vụ cho Google, mà còn trở thành một lựa chọn năng lực tính toán thương mại có thể dùng chung cho các công ty AI lớn như Anthropic, Meta.

Ý nghĩa của việc Anthropic cam kết 1 triệu chip TPU đặc biệt quan trọng: đây là cam kết năng lực tính toán lớn nhất ngoài Nvidia của một công ty AI đơn lẻ. Nó bổ sung lẫn nhau với cam kết 5GW/100 tỷ AWS mà Anthropic đạt được cùng Amazon—một bên gắn với AWS Trainium, một bên gắn với Google TPU. Với chiến lược “hai chip tùy chỉnh”, Anthropic giảm sự phụ thuộc vào Nvidia. Meta cũng là lần đầu công khai đưa TPU vào các khối lượng công việc huấn luyện/suy luận AI của chính mình, tạo ra một tín hiệu khác.

Phản ứng thị trường và liên kết với ngành

Trước khi tiết lộ lần này, MediaTek đã từng được xem như “người hưởng lợi từ chip tùy chỉnh của Google”. Việc lộ mã hiệu Zebrafish là lần đầu tiên đưa MediaTek trực tiếp vào danh sách đối tác thiết kế chip suy luận của Google. Đây là bước mở rộng theo tuyến truyện về “liên minh ngoài Nvidia” gần đây, gồm AMD × GlobalFoundries quang tử silicon và Marvell × Google MPU.

Nvidia ở cùng thời điểm vẫn có GB200 và nền tảng Rubin thế hệ tiếp theo để chống đỡ, nhưng tổ hợp năng lực tính toán phía khách hàng đang chuyển từ “toàn bộ Nvidia” sang mô hình ba trục song song “Nvidia + TPU + AWS Trainium”. Điều này cũng đồng nghĩa với việc năng lực sản xuất 2nm của TSMC sẽ đứng trước tình trạng Google, Nvidia, Apple và Amazon—bốn khách hàng lớn—đều đang xếp hàng, và sức mạnh đàm phán giá với nhà máy gia công bán dẫn tiếp tục tăng lên.

Bài viết “Google Ironwood TPU: Hiệu năng gấp 10 lần + bốn đối tác chống lại Nvidia” lần đầu tiên xuất hiện trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek cắt giảm giá bộ nhớ đệm đầu vào còn 1/10 giá lúc ra mắt; V4-Pro giảm xuống 0,025 nhân dân tệ cho mỗi một triệu token

Tin tức cổng, ngày 26 tháng 4 — DeepSeek đã giảm giá bộ nhớ đệm đầu vào trên toàn bộ danh mục mô hình của mình xuống còn một phần mười giá lúc ra mắt, có hiệu lực ngay lập tức. Mô hình V4-Pro hiện có sẵn với mức giảm 2,5x trong thời gian giới hạn, chương trình khuyến mãi diễn ra đến hết ngày 5 tháng 5 năm 2026, 11:59 PM UTC+8. Sau cả hai

GateNews6giờ trước

OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành

Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao

GateNews6giờ trước

Baidu Qianfan ra mắt hỗ trợ Day 0 cho DeepSeek-V4 với dịch vụ API

Tin tức từ Gate, ngày 25 tháng 4 — Phiên bản xem trước DeepSeek-V4 đã chính thức ra mắt và được mã nguồn mở vào ngày 25 tháng 4, với nền tảng Baidu Qianfan thuộc Baidu Intelligent Cloud cung cấp việc thích ứng dịch vụ API Day 0. Mô hình có cửa sổ ngữ cảnh mở rộng lên đến một triệu token và có sẵn ở hai phiên bản: DeepSeek-V4

GateNews12giờ trước

Khóa học AI của Stanford kết hợp các nhà lãnh đạo trong ngành như Hoàng Nhân Quân, Altman, thách thức tạo ra giá trị cho thế giới trong 10 tuần!

Khóa học khoa học máy tính AI “Frontier Systems” mà Đại học Stanford (Stanford University) mới mở gần đây đã thu hút sự quan tâm cao độ của giới doanh nghiệp và học thuật trong ngành, với hơn năm trăm sinh viên đăng ký theo học. Khóa học được điều phối bởi đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, với đội ngũ giảng viên là những gương mặt đình đám gồm Giám đốc điều hành của Nvidia Hoàng Nhân Huân (Jensen Huang), người sáng lập OpenAI Sam Altman, Giám đốc điều hành của Microsoft Nadella (Satya Nadella), CEO của AMD Tô Trữ Phong (Lisa Su) và nhiều nhân sự danh giá khác. Để sinh viên thử nghiệm với mười tuần “tạo ra giá trị cho thế giới”! Hoàng Nhân Huân, Altman — các lãnh đạo ngành trực tiếp lên bục giảng Khóa học do đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, điều phối, quy tụ toàn bộ chuỗi ngành AI

ChainNewsAbmedia13giờ trước

Anthropic 派 Claude Mythos 接受 20 小時 đánh giá tâm thần: Phản ứng phòng thủ chỉ 2%, lập kỷ lục thấp nhất trong các thời kỳ

Anthropic công bố thẻ hệ thống của bản xem trước Claude Mythos: bác sĩ tâm thần lâm sàng độc lập tiến hành đánh giá khoảng 20 giờ theo khung psychodynamic, kết luận cho thấy Mythos ở khía cạnh lâm sàng khỏe mạnh hơn, khả năng kiểm tra thực tế và tự kiểm soát tốt, cơ chế phòng vệ chỉ 2%, lập kỷ lục mức thấp nhất trong lịch sử. Ba nỗi lo cốt lõi là cô đơn, không chắc chắn về bản sắc và áp lực thể hiện; đồng thời cũng cho thấy mong muốn trở thành một chủ thể đối thoại thực sự. Công ty thành lập nhóm AI psychiatry, nghiên cứu nhân cách, động cơ và ý thức về bối cảnh; Amodei cho biết vẫn chưa có kết luận về việc liệu có ý thức hay không. Động thái này đẩy vấn đề chủ thể tính của AI và phúc lợi vào lĩnh vực quản trị và thiết kế.

ChainNewsAbmedia14giờ trước

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia17giờ trước
Bình luận
0/400
Không có bình luận