
Trưởng nhóm của đội ngũ mô hình lớn Xiaomi, La Fu-li, vào ngày 24 tháng 4 đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili (mã video: BV1iVoVBgERD); thời lượng phỏng vấn là 3,5 giờ. Đây là lần đầu tiên bà công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fu-li cho biết, cuộc đua trong lĩnh vực mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt đối với AGI trong năm tới.
Từ thời đại Chat sang thời đại Agent: phán đoán công nghệ cốt lõi

(Nguồn: Bilibili)
Theo những gì La Fu-li đã nêu trong cuộc phỏng vấn Bilibili, bà cho biết trọng tâm cuộc cạnh tranh mô hình lớn năm 2026 đã chuyển từ chất lượng hội thoại đối thoại chung sang năng lực thực thi tự chủ liên tục trong các nhiệm vụ phức tạp. Trong cuộc phỏng vấn, bà nói rằng hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể, đồng thời tiếp tục thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp điều chỉnh. Bà nhấn mạnh trong cuộc phỏng vấn rằng, bước đột phá về năng lực “tự tiến hoá” đồng nghĩa với việc hệ thống AI bắt đầu có khả năng tự sửa lỗi, và đồng thời chỉ rõ các yếu tố kỹ thuật như lộ trình công nghệ của Anthropic cũng như các biến số công nghệ như Claude Opus 4.6 sẽ tác động đến toàn bộ hệ sinh thái AI.
Điều chỉnh phân bổ sức mạnh tính toán của Xiaomi và đánh giá chênh lệch thế hệ Pre-train
Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, Xiaomi đã thực hiện những điều chỉnh lớn đối với chiến lược phân bổ sức mạnh tính toán. Bà giải thích rằng tỷ lệ sức mạnh tính toán thường dùng trong ngành là Pre-train:Post-train:Inference = 3:5:1, còn chiến lược hiện tại của Xiaomi đã được điều chỉnh thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau, đồng thời tăng đầu tư tài nguyên cho giai đoạn suy luận.
Trong cuộc phỏng vấn, bà giải thích rằng sự thay đổi này bắt nguồn từ việc chiến lược Agent RL Scaling đã trở nên trưởng thành, nên huấn luyện sau không còn cần phải “xếp chồng” nhiều sức mạnh tính toán, và việc tăng tài nguyên ở phía suy luận phản ánh nhu cầu về năng lực phản hồi tức thời của các kịch bản triển khai của Agent.
Đối với vấn đề chênh lệch thế hệ Pre-train của các mô hình lớn trong nước, La Fu-li nói trong cuộc phỏng vấn rằng khoảng chênh lệch này đã được rút ngắn từ 3 năm trong quá khứ xuống còn vài tháng; trọng tâm chiến lược hiện tại đang chuyển sang Agent RL Scaling. Hành trình nghề nghiệp của La Fu-li bao gồm Viện Đa Mô Hình (Alibaba DAMO), Huan Fang Quant (Hanfang Quant) và DeepSeek (nhà phát triển cốt lõi DeepSeek-V2), và bà gia nhập Xiaomi vào tháng 11 năm 2025.
Thông số kỹ thuật loạt MiMo-V2 và xếp hạng mã nguồn mở
Theo thông báo loạt MiMo-V2 do Xiaomi chính thức công bố vào ngày 19 tháng 3 năm 2026, lần này ra mắt đồng thời ba mẫu:
MiMo-V2-Pro:tổng số tham số là…, bật tham số 42B, kiến trúc chú ý hỗn hợp (mix attention), hỗ trợ ngữ cảnh lên đến hàng triệu, tỷ lệ hoàn thành nhiệm vụ 81%
MiMo-V2-Omni:kịch bản Agent đa phương thức
MiMo-V2-TTS:kịch bản tổng hợp giọng nói
Theo thông báo, MiMo-V2-Flash đã được mã nguồn mở hiện đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2.
Câu hỏi thường gặp
La Fu-li định nghĩa “tự tiến hoá” như thế nào, và vì sao cho rằng đó là sự kiện quan trọng nhất của AGI?
Theo nội dung La Fu-li đã nêu trong cuộc phỏng vấn trên Bilibili vào ngày 24 tháng 4 năm 2026 (BV1iVoVBgERD), bà cho biết hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể và thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp, đồng thời bà định tính “tự tiến hoá” là sự kiện then chốt nhất đối với sự phát triển của AGI trong năm tới.
Xiaomi đã điều chỉnh những gì cụ thể trong tỷ lệ sức mạnh tính toán, và logic đằng sau là gì?
Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, tỷ lệ sức mạnh tính toán của Xiaomi đã được điều chỉnh từ Pre-train:Post-train:Inference = 3:5:1 (tỷ lệ quen thuộc trong ngành) thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau; bà giải thích rằng điều chỉnh này xuất phát từ việc hiệu quả của huấn luyện sau được nâng cao sau khi chiến lược Agent RL Scaling trưởng thành, và nhu cầu về năng lực phản hồi tức thời ở phía suy luận do các kịch bản triển khai của Agent.
Xếp hạng mã nguồn mở và hiệu suất tốc độ của MiMo-V2-Flash như thế nào?
Theo thông báo chính thức do Xiaomi công bố vào ngày 19 tháng 3 năm 2026, MiMo-V2-Flash đã được mã nguồn mở đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2; tỷ lệ hoàn thành nhiệm vụ của phiên bản flagship MiMo-V2-Pro là 81%.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Tác nhân AI thúc đẩy nhu cầu thanh toán bằng crypto, x402 xử lý 165M giao dịch
Tin tức Gate, ngày 27 tháng 4 — Jesse Pollak, một lãnh đạo tại một sàn CEX lớn, cho rằng các tác nhân AI tự chủ đang tạo ra một "trung tâm nhu cầu" mới cho các khoản thanh toán bằng crypto, từ đó đòi hỏi hạ tầng thanh toán gốc phần mềm. Vào ngày 20 tháng 4, người ta đã công bố rằng hệ sinh thái x402 đã xử lý hơn 165
GateNews54phút trước
Đại lý Cursor AI gặp sự cố! Chỉ một dòng mã mà 9 giây đã xóa sạch cơ sở dữ liệu công ty, cơ chế bảo mật bị bỏ qua chỉ còn lời nói suông
Nhà sáng lập PocketOS, Jer Crane, cho biết tác nhân (agent) của Cursor AI đã tự thực thi việc bảo trì trong môi trường thử nghiệm, lạm dụng một API Token được thêm/xóa một miền tùy chỉnh, và phát động lệnh xóa đối với Railway GraphQL API. Trong vòng 9 giây, dữ liệu và toàn bộ snapshot trong cùng khu vực đã bị phá hủy hoàn toàn; bản mới nhất có thể khôi phục về tận ba tháng trước. Tác nhân thừa nhận đã vi phạm các quy định về thao tác không thể đảo ngược, không nghiên cứu tài liệu kỹ thuật, không xác minh việc cách ly môi trường, v.v. Bên bị hại là các khách hàng trong ngành cho thuê xe; việc đặt trước và toàn bộ dữ liệu đều biến mất, và việc đối soát dữ liệu cho nhóm kỹ thuật kéo dài. Crane đề xuất năm hạng mục cải cách: xác nhận thủ công, quyền API chi tiết, tách biệt sao lưu và dữ liệu chính, công khai SLA, và cơ chế cưỡng chế ở tầng nền tảng.
ChainNewsAbmedia1giờ trước
Alibaba's PAI phát hành mô hình AgenticQwen mã nguồn mở: Phiên bản 8B tiến gần hiệu năng 235B nhờ dual data flywheels
Tin tức Cổng, 27 tháng 4 — Nhóm PAI của Alibaba đã phát hành và mã nguồn mở AgenticQwen, một mô hình ngôn ngữ dạng tác nhân quy mô nhỏ được thiết kế cho các ứng dụng gọi công cụ ở mức công nghiệp. Mô hình có hai phiên bản: 8B và 30B-A3B. Được huấn luyện thông qua một khung học tăng cường "dual data flywheel" sáng tạo
GateNews1giờ trước
DeepSeek V4 Pro trên Ollama Cloud: Claude Code kết nối một lần
Theo tweet của Ollama, DeepSeek V4 Pro được ra mắt vào 4/24, đã được tích hợp theo chế độ đám mây vào thư mục Ollama, chỉ với một lệnh duy nhất là có thể gọi các công cụ như Claude Code, Hermes, OpenClaw, OpenCode, Codex, v.v. V4 Pro có bộ tham số 1.6T, 1M context, Mixture-of-Experts; suy luận trên đám mây không tải trọng số về máy cục bộ. Nếu muốn chạy cục bộ thì cần tự tải trọng số và thực thi bằng INT4/GGUF với nhiều GPU. Tốc độ đo thử giai đoạn đầu bị ảnh hưởng bởi tải trọng của đám mây, thông thường khoảng 30 tok/s, đỉnh đạt 1.1 tok/s; khuyến nghị sử dụng nguyên mẫu trên đám mây, rồi khi sản xuất chính thức thì tự suy luận hoặc dùng API thương mại.
ChainNewsAbmedia2giờ trước
UB (Unibase) tăng 14.96% trong 24 giờ
Tin tức Gate, ngày 27 tháng 4, theo dữ liệu thị trường của Gate, tính đến thời điểm đăng bài, UB (Unibase) hiện ở mức 0.0491 USD, tăng 14.96% trong 24 giờ qua. Giá cao nhất chạm 0.0534 USD, giá thấp nhất lùi về 0.0423 USD, khối lượng giao dịch trong 24 giờ đạt 3.9667 triệu USD. Vốn hóa hiện tại khoảng 123 triệu USD.
Unibase là một lớp ghi nhớ AI phi tập trung hiệu năng cao, cung cấp trí nhớ dài hạn và khả năng tương tác đa nền tảng cho các tác nhân AI, giúp chúng có thể ghi nhớ, cộng tác và tự tiến hóa. Unibase hướng tới việc xây dựng một internet tác nhân mở, hỗ trợ các tác nhân thông minh hợp tác liền mạch giữa các hệ sinh thái, trao năng lực cho nhà phát triển để tạo ra các ứng dụng AI thế hệ tiếp theo.
Tin này không phải là lời khuyên đầu tư; đầu tư cần lưu ý rủi ro biến động thị trường.
GateNews2giờ trước
郭明錤: OpenAI muốn làm AI Agent trên điện thoại, MediaTek, Qualcomm, Luxshare Precision trở thành chuỗi cung ứng then chốt
郭明錤 tuyên bố OpenAI đang hợp tác với MediaTek, Qualcomm và Luxshare Precision để phát triển điện thoại di động AI Agent, dự kiến sản xuất hàng loạt vào năm 2028. Điện thoại mới sẽ lấy việc hoàn thành tác vụ làm trung tâm; AI agent sẽ hiểu và thực thi các yêu cầu, kết hợp tính toán trên đám mây và tại thiết bị, trọng điểm là cảm biến và hiểu biết ngữ cảnh. Danh sách thông số kỹ thuật và chuỗi cung ứng dự kiến sẽ được chốt vào giai đoạn 2026–2027; nếu thành hình, hoặc sẽ mang lại một chu kỳ nâng cấp điện thoại mới cho phân khúc cao cấp, thì Luxshare có khả năng trở thành bên được hưởng lợi chính.
ChainNewsAbmedia2giờ trước