notch
RESEARCH54

KARL: Mitigating Hallucinations in LLMs via Knowledge-Boundary-Aware Reinforcement Learning

arXiv CS.LG·28 de abril de 2026

KARL é um novo framework projetado para mitigar alucinações em grandes modelos de linguagem, permitindo-lhes abster-se apropriadamente de perguntas além de seu conhecimento. Ele faz isso através de uma Recompensa Sensível aos Limites do Conhecimento que estima dinamicamente o saber do modelo e uma Estratégia de Treinamento RL em Duas Etapas que previne a cautela excessiva.

Reinforcement LearninghallucinationsAI safetyLLM
Ler original