Baidu Phát hành Wenxin 5.1 với chi phí huấn luyện trước chỉ bằng 6% so với các chuẩn mực ngành

Theo Securities Times, Baidu đã phát hành mô hình ngôn ngữ lớn nền tảng mới nhất Wenxin 5.1, đạt hiệu suất nền tảng hàng đầu với chi phí huấn luyện trước chỉ bằng 6% so với các chuẩn mực của ngành đối với các mô hình có quy mô tương đương. Mô hình sử dụng kỹ thuật “huấn luyện trước co giãn đa chiều”.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Tranh cãi Chế độ Mã Code Mode của Anthropic với MCP Vs CLI: công cụ hóa Runtime, giảm tokens từ 150K xuống 2K

Trong cả năm 2025, cộng đồng AI Engineering đã tranh luận không ngừng về câu hỏi “MCP hay CLI phù hợp hơn cho việc gọi công cụ của Agent”, và bài báo “Code execution with MCP” do Anthropic công bố vào tháng 11/2025 đã định nghĩa lại vấn đề từ những nguyên lý cốt lõi. akshay\pachaar đã tổng hợp thread vào ngày 5/10, giải thích rằng vấn đề không nằm ở bản thân giao thức, mà nằm ở thói quen cũ “khi bắt đầu session, nhét toàn bộ mô tả công cụ vào context”. Giải pháp của Anthropic là để mô hình viết

ChainNewsAbmedia12phút trước

ByteDance dự kiến tăng 25% chi tiêu cho hạ tầng AI lên 200 tỷ nhân dân tệ trong năm nay

Theo ChainCatcher dẫn nguồn từ Golden Data, ByteDance dự kiến sẽ tăng chi tiêu cho hạ tầng AI thêm 25% lên 200 tỷ nhân dân tệ trong năm nay, do chi phí chip nhớ tăng cao và tiến độ phát triển trí tuệ nhân tạo được đẩy nhanh.

GateNews50phút trước

Nền tảng AI Doanh nghiệp đóng vòng $16M Series, được dẫn dắt bởi a16z

Theo Odaily, nền tảng AI doanh nghiệp Pit đã công bố hoàn tất vòng gọi vốn 16 triệu USD, do a16z dẫn dắt, với sự tham gia của Lakestar và các lãnh đạo từ OpenAI, Anthropic, Google, Deel và Revolut. Pit định vị mình là “AI product team as a service”, được thiết kế để thay thế các bảng tính truyền thống và các hệ thống SaaS cứng nhắc.

GateNews57phút trước

Google thí điểm tuyển dụng bằng các kỳ thi cho phép kỹ sư sử dụng công cụ AI

Theo The Chosun Daily, Google đang thí điểm các bài kiểm tra tuyển dụng cho phép ứng viên kỹ sư phần mềm tại Mỹ sử dụng công cụ AI ở một số vị trí tuyển dụng cấp đầu vào và cấp trung gian. Thử nghiệm này bao gồm các nhiệm vụ về hiểu mã, trong đó ứng viên xem lại mã hiện có, sửa lỗi và cải thiện hiệu năng. Người phỏng vấn sẽ đánh giá cách ứng viên ra lệnh cho AI, kiểm tra đầu ra, chỉnh sửa kết quả và gỡ lỗi mã, thay vì chỉ đánh giá khả năng tự viết mã từ đầu.

GateNews3giờ trước

OpenAI ngừng API tinh chỉnh (fine-tuning) hiệu lực ngay lập tức; người dùng hiện tại có thể truy cập cho đến ngày 6 tháng 1 năm 2027

Theo thông báo chính thức của OpenAI, được Beating theo dõi, công ty đang ngừng cung cấp API Fine-tuning tự phục vụ cho nhà phát triển, có hiệu lực ngay lập tức. Người dùng mới không còn có thể tạo các tác vụ fine-tuning, trong khi người dùng hiện tại đang hoạt động vẫn có thể truy cập dịch vụ cho đến ngày 6 tháng 1 năm 2027. Các mô hình đã được fine-tune sẽ có dịch vụ suy luận gắn với vòng đời của các mô hình nền (base model), và sẽ dừng khi mô hình nền bị ngừng hỗ dụng. OpenAI cho biết các mô

GateNews3giờ trước

Sakana AI và Nvidia đạt tốc độ suy luận H100 nhanh hơn 30% bằng cách bỏ qua 80% các phép tính không hợp lệ

Sakana AI và Nvidia đã mã nguồn mở TwELL, một định dạng dữ liệu thưa giúp các GPU H100 bỏ qua 80% các phép tính không hợp lệ trong các mô hình ngôn ngữ lớn mà không làm giảm độ chính xác. Giải pháp mang lại suy luận nhanh hơn tới 30% và huấn luyện nhanh hơn 24% trên H100, đồng thời giảm mức sử dụng bộ nhớ đỉnh. Trong thử nghiệm với một mô hình tham số 1,5 tỷ, phương pháp này đã đưa số nơ-ron hoạt động xuống dưới 2% nhờ cơ chế chính quy hóa nhẹ trong quá trình huấn luyện, không suy giảm hiệu năng

GateNews4giờ trước
Bình luận
0/400
Không có bình luận