heapsort-ai
RESEARCH↑ trending45

New project about llm hallucination [P]

Reddit r/MachineLearning·24 de abril de 2026

Este conteúdo apresenta um novo projeto paralelo e seu repositório no GitHub, focado na mitigação da alucinação em LLMs através de um novo método de amostragem contrastiva e treinamento seletivo. A ideia central trata a alucinação como um problema de preferência, utilizando amostras negativas auto-geradas e aprendizado baseado em divergência e controlado para promover respostas corretas e suprimir as erradas.

hallucinationmodel trainingNatural Language ProcessingAI safetyLLM
Ler original