Tin tức từ Gate, ngày 21 tháng 4 — Startup lưu trữ AI của Hàn Quốc Dnotitia huy động 90 tỷ won (61,2 triệu US$) trong một vòng gọi vốn Series A do Elohim Partners dẫn dắt. Kiwoom Investment và Shinhan Venture Investment cũng tham gia vào vòng này.
Các sản phẩm chính của Dnotitia là cơ sở dữ liệu vector Seahorse và một chip tùy chỉnh có tên VDPU (Vector Data Processing Unit). Seahorse nhận chứng nhận GS Hạng 1 vào tháng 1, và công ty ra mắt dịch vụ đám mây vào tháng 3. Chip VDPU hiện đang được thử nghiệm với các nhà sản xuất lưu trữ và máy chủ, với kế hoạch ra mắt vào nửa cuối năm 2026.
Dnotitia đã bổ nhiệm Korea Investment & Securities và Shinhan Securities làm đơn vị quản lý chính cho kế hoạch phát hành lần đầu ra công chúng.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Đối tác YC chia sẻ cách sử dụng AI để bắt đầu xây dựng một công ty từ con số không, và các startup nên xem AI như một hệ điều hành chứ không phải một công cụ
Ảnh hưởng của AI đối với các công ty khởi nghiệp không còn chỉ là giúp các kỹ sư viết code nhanh hơn, tự động hóa quy trình chăm sóc khách hàng, hoặc thêm một Copilot vào sản phẩm hiện có. Đối tác của YC, Diana, gần đây cho biết, sự thay đổi thực sự nằm ở việc AI đang viết lại “cách một công ty nên được xây dựng từ con số không”. Đối với các nhà sáng lập giai đoạn đầu, AI không nên chỉ là một công cụ hiệu suất được sử dụng thỉnh thoảng bởi công ty, mà cần được thiết kế ngay từ ngày đầu tiên để trở thành hệ điều hành vận hành của cả công ty.
Góc nhìn về năng suất đã lỗi thời, AI đang viết lại điểm khởi đầu trong thiết kế của công ty
Diana cho rằng, hiện tại khi thị trường nói về AI, vẫn quá thường xuyên dừng lại ở khung “tăng năng suất”, ví dụ như kỹ sư có thể viết code nhanh hơn, đội ngũ có thể tự động hóa thêm nhiều quy trình, công ty có thể tung ra nhiều tính năng hơn. Nhưng cách nói đó thực ra đã đánh giá thấp những thay đổi mang tính cấu trúc mà AI mang lại. Cô chỉ ra rằng, việc kết hợp đúng người với AI 工
ChainNewsAbmedia11phút trước
Đại lý Cursor AI gặp sự cố! Chỉ một dòng mã mà 9 giây đã xóa sạch cơ sở dữ liệu công ty, cơ chế bảo mật bị bỏ qua chỉ còn lời nói suông
Nhà sáng lập PocketOS, Jer Crane, cho biết tác nhân (agent) của Cursor AI đã tự thực thi việc bảo trì trong môi trường thử nghiệm, lạm dụng một API Token được thêm/xóa một miền tùy chỉnh, và phát động lệnh xóa đối với Railway GraphQL API. Trong vòng 9 giây, dữ liệu và toàn bộ snapshot trong cùng khu vực đã bị phá hủy hoàn toàn; bản mới nhất có thể khôi phục về tận ba tháng trước. Tác nhân thừa nhận đã vi phạm các quy định về thao tác không thể đảo ngược, không nghiên cứu tài liệu kỹ thuật, không xác minh việc cách ly môi trường, v.v. Bên bị hại là các khách hàng trong ngành cho thuê xe; việc đặt trước và toàn bộ dữ liệu đều biến mất, và việc đối soát dữ liệu cho nhóm kỹ thuật kéo dài. Crane đề xuất năm hạng mục cải cách: xác nhận thủ công, quyền API chi tiết, tách biệt sao lưu và dữ liệu chính, công khai SLA, và cơ chế cưỡng chế ở tầng nền tảng.
ChainNewsAbmedia13phút trước
DeepSeek V4 Pro trên Ollama Cloud: Claude Code kết nối một lần
Theo tweet của Ollama, DeepSeek V4 Pro được ra mắt vào 4/24, đã được tích hợp theo chế độ đám mây vào thư mục Ollama, chỉ với một lệnh duy nhất là có thể gọi các công cụ như Claude Code, Hermes, OpenClaw, OpenCode, Codex, v.v. V4 Pro có bộ tham số 1.6T, 1M context, Mixture-of-Experts; suy luận trên đám mây không tải trọng số về máy cục bộ. Nếu muốn chạy cục bộ thì cần tự tải trọng số và thực thi bằng INT4/GGUF với nhiều GPU. Tốc độ đo thử giai đoạn đầu bị ảnh hưởng bởi tải trọng của đám mây, thông thường khoảng 30 tok/s, đỉnh đạt 1.1 tok/s; khuyến nghị sử dụng nguyên mẫu trên đám mây, rồi khi sản xuất chính thức thì tự suy luận hoặc dùng API thương mại.
ChainNewsAbmedia1giờ trước
DeepSeek Giảm 75% Giá V4-Pro, Cắt Chi Phí Cache API Xuống Một-Tenth
Tin tức từ Gate, 27 tháng 4 — DeepSeek công bố giảm giá 75% cho mô hình V4-Pro mới của mình dành cho nhà phát triển và hạ giá các mức “input cache hit” trên toàn bộ danh mục API của hãng xuống chỉ bằng một phần mười so với các mức trước đó.
Mô hình V4, được phát hành vào ngày 25 tháng 4 ở hai phiên bản Pro và Flash, đã được tối ưu cho các bộ xử lý Ascend của Huawei. DeepSeek cho biết V4-Pro vượt trội hơn các mô hình mã nguồn mở khác trên các bài benchmark về kiến thức thế giới và xếp thứ hai, chỉ sau Gemini-Pro-3.1 dạng đóng của Google. Dòng V4 được thiết kế riêng cho các tác nhân AI xử lý các tác vụ phức tạp vượt xa khả năng của chatbot.
Chi phí API V4-Pro hiện đã thấp hơn các đối thủ lớn của phương Tây, được định giá 3,48 USD cho mỗi một triệu token đầu ra, so với của GPT-4.5 từ OpenAI. Giá V4-Flash ở mức 0,14 USD cho mỗi một triệu token đầu vào và 0,28 USD cho mỗi một triệu token đầu ra, có thể giúp triển khai các ứng dụng tiết kiệm chi phí như rà soát toàn bộ cơ sở mã hoặc tài liệu quy định chỉ trong một lần yêu cầu.
GateNews1giờ trước
Coachella chuyển sang AI của DeepMind thuộc Google để hình dung lại các buổi hòa nhạc vượt ra ngoài sân khấu
Coachella đã hợp tác với Google DeepMind để thử nghiệm các công cụ AI mới nhằm định hình lại cách các buổi biểu diễn âm nhạc trực tiếp được tạo ra và được trải nghiệm.
Tóm tắt
Coachella đã thử nghiệm các công cụ AI với Google DeepMind để biến các buổi biểu diễn trực tiếp thành các môi trường kỹ thuật số tương tác.
Ba nguyên mẫu đã được xây dựng,
Cryptonews1giờ trước