Tether vừa công bố một khung huấn luyện AI mới, cho phép tinh chỉnh các mô hình ngôn ngữ lớn ngay trên thiết bị tiêu dùng như điện thoại thông minh và GPU không thuộc Nvidia. Hệ thống này, thuộc nền tảng QVAC, tận dụng kiến trúc BitNet của Microsoft kết hợp kỹ thuật LoRA nhằm giảm đáng kể yêu cầu về bộ nhớ và chi phí tính toán.
Theo Tether, framework hỗ trợ đa nền tảng, tương thích với chip từ AMD, Intel, Apple Silicon và GPU di động của Qualcomm. Các kỹ sư có thể fine-tune mô hình tới 1 tỷ tham số trên smartphone trong dưới hai giờ, thậm chí mở rộng tới 13 tỷ tham số trên thiết bị di động.
Công nghệ BitNet giúp giảm tới 77,8% VRAM so với mô hình 16-bit, đồng thời tăng tốc suy luận trên GPU di động. Tether cũng nhấn mạnh tiềm năng ứng dụng như học liên kết (federated learning), giảm phụ thuộc vào cloud.
Động thái này phản ánh xu hướng các công ty tiền điện tử mở rộng sang AI và hạ tầng tính toán, song song với sự phát triển của AI agent trong ngành.