Ollama torna-se fornecedor oficial de modelos para OpenClaw, suportando chamadas híbridas de modelos em nuvem e locais

Gate News notícia, 16 de março, a ferramenta de execução de grandes modelos locais Ollama anunciou hoje que se tornou oficialmente fornecedora de modelos da OpenClaw. Os usuários podem completar a integração executando o comando openclaw onboard --auth-choice ollama, e todos os modelos Ollama irão colaborar de forma transparente com o OpenClaw. A integração do Ollama oferece um modo híbrido Cloud + Local, permitindo aos usuários usar simultaneamente modelos hospedados na nuvem Ollama e modelos executados localmente. O assistente do OpenClaw detecta automaticamente os modelos Ollama instalados localmente e suporta streaming e chamadas de ferramentas via API nativa do Ollama. Peter Steinberger, fundador do OpenClaw, participou da revisão desta integração.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários