notch
RESEARCH27

TalkLoRA: Communication-Aware Mixture of Low-Rank Adaptation for Large Language Models

arXiv CS.LG·9 de abril de 2026

TalkLoRA propõe um framework MoELoRA que aborda a instabilidade de roteamento e a dominância de especialistas em métodos existentes, permitindo a comunicação entre especialistas antes do roteamento. Isso é feito através de um Módulo de Conversação leve, que facilita a troca de informações, gerando um sinal de roteamento mais robusto para Large Language Models (LLMs).

LLMsMoEcommunicationFine-TuningLoRA
Ler original