notch
RESEARCH30

FLeX: Fourier-based Low-rank EXpansion for multilingual transfer

arXiv CS.LG·9 de abril de 2026

Este artigo investiga a geração de código cross-lingual, focando em métodos de fine-tuning paramétrico-eficiente (PEFT) e otimizadores para LLMs. Os autores demonstram que o fine-tuning LoRA no Code Llama 7B, com um dataset pequeno de alta qualidade, pode superar o desempenho de modelos mais amplamente fine-tuned, e que otimizadores como Sophia oferecem convergência mais rápida com resultados finais comparáveis.

Cross-lingual code generationPEFTLoRALLM fine-tuningOptimizers
Ler original