ARTICLE↑ trending42
Nanochat vs Llama for training from scratch? [P]
Reddit r/MachineLearning·24 de abril de 2026
O usuário está treinando um modelo de IA do zero e busca conselhos sobre a melhor arquitetura, considerando mudar do Nanochat (que carece de compatibilidade com Transformers) para a arquitetura Llama. O objetivo é um projeto de código aberto com um novo e maior conjunto de dados, apesar das vantagens do Nanochat.
AI Architectureopen source AIai-trainingLLMtransformers
Ler original ↗