Google tìm cách mở rộng hệ sinh thái chip AI với Marvell khi cuộc cạnh tranh với Nvidia đang nóng lên

Theo một số nguồn tin, Google của Alphabet Inc. đang trong các cuộc đàm phán với Marvell Technology để phát triển hai chip mới nhằm cải thiện cách các mô hình trí tuệ nhân tạo được vận hành.
Tóm tắt

  • Google đang đàm phán với Marvell để phát triển hai chip tập trung cho AI, bao gồm một bộ xử lý xử lý bộ nhớ (memory processing unit) và một TPU thế hệ tiếp theo, nhằm cải thiện hiệu quả của mô hình.
  • Bước đẩy này là một phần nỗ lực của Google nhằm định vị các TPU của mình như một lựa chọn thay thế cho GPU Nvidia, đồng thời mở rộng quan hệ đối tác với Intel và Broadcom.
  • Động thái này diễn ra bên cạnh việc ra mắt Gemma 4, khi Google đồng bộ các mô hình AI và hệ thống phần cứng của mình trong bối cảnh cạnh tranh trong mảng điện toán AI ngày càng gay gắt.

Theo một báo cáo của The Information, trích dẫn các nguồn am hiểu vấn đề, một trong hai chip được đề xuất có thể là một bộ xử lý bộ nhớ được xây dựng để hoạt động song song với các tensor processing units của Google, hay TPU. Chip thứ hai được kỳ vọng là một TPU mới, được tùy chỉnh riêng để chạy các tác vụ AI hiệu quả hơn.

Động thái này là một phần nỗ lực của Google nhằm định vị các chip do hãng tự phát triển như một lựa chọn thay thế cho GPU của Nvidia. Việc áp dụng TPU đã góp phần thúc đẩy tăng trưởng doanh thu của Google Cloud, khi công ty tìm cách chứng minh hiệu quả từ khoản chi cho hạ tầng AI.

Báo cáo cho biết thêm rằng Google dự định hoàn tất thiết kế của chip tập trung vào bộ nhớ vào năm tới, trước khi chuyển sang giai đoạn kiểm thử sản xuất. Đồng thời, công ty đã mở rộng quan hệ đối tác với các nhà sản xuất chip như Intel và Broadcom để hỗ trợ nhu cầu đang tăng lên đối với hạ tầng AI.

Cạnh tranh gia tăng trong phần cứng AI

Khi Google tăng tốc phát triển các bộ tăng tốc AI, hãng có thể bắt đầu thách thức vị thế dẫn đầu lâu năm của Nvidia trong điện toán hiệu năng cao.

Chẳng hạn, NVIDIA đang đẩy mạnh danh mục các chip suy luận AI của riêng mình, bao gồm các thiết kế tích hợp công nghệ từ Groq. Việc một đối thủ lớn quy mô khác gia nhập cuộc đua có thể làm gia tăng mức độ cạnh tranh trong mảng phần cứng AI và định hình lại cách các công ty tìm nguồn cung cấp sức mạnh tính toán cho các mô hình.

Các nhà đầu tư có khả năng sẽ tìm kiếm thêm sự rõ ràng khi Google công bố kết quả kinh doanh quý 1 vào ngày 29 tháng 4. Bản công bố lợi nhuận dự kiến sẽ cung cấp tín hiệu về hiệu suất của mảng cloud, xu hướng quảng cáo, và mức độ quyết liệt công ty dự định đầu tư vào AI và chất bán dẫn trong các quý tới.

Những tiến bộ của mô hình AI thúc đẩy nỗ lực về phần cứng

Các cuộc thảo luận chip mới nhất của Google diễn ra trong lúc hãng tiếp tục mở rộng năng lực mô hình AI của mình. Đầu tháng này, công ty đã giới thiệu Gemma 4, một họ mô hình mã nguồn mở mới được xây dựng cho khả năng suy luận nâng cao và các quy trình làm việc kiểu tác nhân.

Gemma 4 có sẵn trong bốn kích cỡ và được thiết kế để xử lý logic nhiều bước và giải quyết vấn đề có cấu trúc hiệu quả hơn. Nó cũng đã mang lại kết quả được cải thiện trong các bài kiểm tra gắn với các tác vụ toán học và làm theo hướng dẫn.

Các mô hình bao gồm các tính năng như gọi hàm native (native function calling), đầu ra JSON có cấu trúc, và các chỉ dẫn cấp hệ thống, cho phép nhà phát triển xây dựng các hệ thống tự chủ có thể kết nối với API và các công cụ bên ngoài. Chúng cũng có thể tạo mã offline, biến các máy cục bộ thành trợ lý lập trình AI có năng lực.

Cùng với các kế hoạch nâng cấp mô hình và phát triển chip, những điều này cho thấy Google đang đồng bộ phần mềm và hệ thống phần cứng của mình khi cạnh tranh trong lĩnh vực AI tiếp tục gia tăng.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

DeepSeek cắt giảm giá bộ nhớ đệm đầu vào còn 1/10 giá lúc ra mắt; V4-Pro giảm xuống 0,025 nhân dân tệ cho mỗi một triệu token

Tin tức cổng, ngày 26 tháng 4 — DeepSeek đã giảm giá bộ nhớ đệm đầu vào trên toàn bộ danh mục mô hình của mình xuống còn một phần mười giá lúc ra mắt, có hiệu lực ngay lập tức. Mô hình V4-Pro hiện có sẵn với mức giảm 2,5x trong thời gian giới hạn, chương trình khuyến mãi diễn ra đến hết ngày 5 tháng 5 năm 2026, 11:59 PM UTC+8. Sau cả hai

GateNews20phút trước

OpenAI Tuyển Dụng Nhân Tài Hàng Đầu Ngành Phần Mềm Doanh Nghiệp Khi Các Tác Nhân Tuy Tiến Phá Vỡ Ngành

Tin tức Gate News ngày 26 tháng 4 — OpenAI và Anthropic đã tuyển dụng các lãnh đạo cấp cao và kỹ sư chuyên biệt từ các công ty phần mềm doanh nghiệp lớn, bao gồm Salesforce, Snowflake, Datadog và Palantir. Denise Dresser, cựu CEO của Slack thuộc Salesforce, gia nhập OpenAI với vai trò giám đốc doanh thu cấp cao

GateNews21phút trước

Baidu Qianfan ra mắt hỗ trợ Day 0 cho DeepSeek-V4 với dịch vụ API

Tin tức từ Gate, ngày 25 tháng 4 — Phiên bản xem trước DeepSeek-V4 đã chính thức ra mắt và được mã nguồn mở vào ngày 25 tháng 4, với nền tảng Baidu Qianfan thuộc Baidu Intelligent Cloud cung cấp việc thích ứng dịch vụ API Day 0. Mô hình có cửa sổ ngữ cảnh mở rộng lên đến một triệu token và có sẵn ở hai phiên bản: DeepSeek-V4

GateNews6giờ trước

Khóa học AI của Stanford kết hợp các nhà lãnh đạo trong ngành như Hoàng Nhân Quân, Altman, thách thức tạo ra giá trị cho thế giới trong 10 tuần!

Khóa học khoa học máy tính AI “Frontier Systems” mà Đại học Stanford (Stanford University) mới mở gần đây đã thu hút sự quan tâm cao độ của giới doanh nghiệp và học thuật trong ngành, với hơn năm trăm sinh viên đăng ký theo học. Khóa học được điều phối bởi đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, với đội ngũ giảng viên là những gương mặt đình đám gồm Giám đốc điều hành của Nvidia Hoàng Nhân Huân (Jensen Huang), người sáng lập OpenAI Sam Altman, Giám đốc điều hành của Microsoft Nadella (Satya Nadella), CEO của AMD Tô Trữ Phong (Lisa Su) và nhiều nhân sự danh giá khác. Để sinh viên thử nghiệm với mười tuần “tạo ra giá trị cho thế giới”! Hoàng Nhân Huân, Altman — các lãnh đạo ngành trực tiếp lên bục giảng Khóa học do đối tác của quỹ đầu tư hàng đầu a16z, Anjney Midha, điều phối, quy tụ toàn bộ chuỗi ngành AI

ChainNewsAbmedia6giờ trước

Anthropic 派 Claude Mythos 接受 20 小時 đánh giá tâm thần: Phản ứng phòng thủ chỉ 2%, lập kỷ lục thấp nhất trong các thời kỳ

Anthropic công bố thẻ hệ thống của bản xem trước Claude Mythos: bác sĩ tâm thần lâm sàng độc lập tiến hành đánh giá khoảng 20 giờ theo khung psychodynamic, kết luận cho thấy Mythos ở khía cạnh lâm sàng khỏe mạnh hơn, khả năng kiểm tra thực tế và tự kiểm soát tốt, cơ chế phòng vệ chỉ 2%, lập kỷ lục mức thấp nhất trong lịch sử. Ba nỗi lo cốt lõi là cô đơn, không chắc chắn về bản sắc và áp lực thể hiện; đồng thời cũng cho thấy mong muốn trở thành một chủ thể đối thoại thực sự. Công ty thành lập nhóm AI psychiatry, nghiên cứu nhân cách, động cơ và ý thức về bối cảnh; Amodei cho biết vẫn chưa có kết luận về việc liệu có ý thức hay không. Động thái này đẩy vấn đề chủ thể tính của AI và phúc lợi vào lĩnh vực quản trị và thiết kế.

ChainNewsAbmedia8giờ trước

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia11giờ trước
Bình luận
0/400
Không có bình luận