NEWS↑ trending36
It looks like we’ll need to download the new Gemma 4 GGUFs
Reddit r/LocalLLaMA·8 de abril de 2026
Este conteúdo anuncia a atualização dos modelos Gemma 4 GGUF da Unsloth, incorporando várias melhorias e correções do projeto llama.cpp. As atualizações abordam aspectos técnicos como cache KV, suporte CUDA, manuseio de vocabulário e parsing específico para Gemma 4.
unslothGemma-4modelos de IAllama.cppGGUF
Ler original ↗