GateUser-9ae6953e

vip
Idade 0 Ano
Nível máximo 0
Ainda não há conteúdo
Gemma 4 está finalmente estável no llama.cpp
Em 2 de abril, o Google lançou o Gemma 4, e no primeiro dia, o suporte ao llama.cpp estava disponível, mas com muitos bugs. Agora todos os problemas estão resolvidos
E2B, E4B, 26B MoE, 31B Dense
31B ocupa o terceiro lugar na classificação do Arena AI, 26B ocupa o sexto
O mais forte nível de modelos de código aberto
Use --chat-template-file para carregar modelos intercalados
Recomenda-se ativar --cache-ram 2048
O comprimento do contexto depende da VRAM
No ano passado, o melhor modelo local era a versão quantizada do Llama 3.1 70B, qua
Ver original
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
  • Marcar