A Tether anunciou recentemente uma nova estrutura de treino de IA que permite ajustar modelos de linguagem de grande escala diretamente em dispositivos de consumo, como smartphones e GPUs que não sejam Nvidia. Este sistema, integrado na plataforma QVAC, aproveita a arquitetura BitNet da Microsoft combinada com a técnica LoRA para reduzir significativamente os requisitos de memória e custos computacionais.
Segundo a Tether, o framework suporta múltiplas plataformas, compatível com chips da AMD, Intel, Apple Silicon e GPUs móveis da Qualcomm. Engenheiros podem ajustar modelos com até 1 bilhão de parâmetros em smartphones em menos de duas horas, e até expandir para 13 bilhões de parâmetros em dispositivos móveis.
A tecnologia BitNet reduz até 77,8% do VRAM em comparação com modelos de 16 bits, além de acelerar a inferência em GPUs móveis. A Tether também destaca o potencial de aplicações como aprendizagem federada, reduzindo a dependência da nuvem.
Esta iniciativa reflete a tendência de empresas de criptomoedas expandirem-se para IA e infraestrutura de computação, paralelamente ao desenvolvimento de agentes de IA no setor.