notch
RESEARCH54

AutoCompress: Critical Layer Isolation for Efficient Transformer Compression

arXiv CS.LG·28 de abril de 2026

AutoCompress é um método de compressão de transformadores que isola a Camada 0, considerada crucial, mantendo-a em dimensão total. Aplicado ao GPT-2 Medium, ele alcança uma redução de 59,5% nos parâmetros com um desempenho significativamente superior a um baseline uniforme.

ai-architecturemodel efficiencydeep learningGPT-2transformer compression
Ler original