ACL’25最佳论文解读 大模型也会‘弹簧回弹’?揭秘 LLM 对齐的脆弱根源
分享ACl 2025最佳论文《Language Models Resist Alignment: Evidence From Data Compression》提出并量化了Elasticity概念,揭示语言模型具有“抗对齐”现象,即使轻微下游微调也会使模型迅速回弹至预训练分布。
分享ACl 2025最佳论文《Language Models Resist Alignment: Evidence From Data Compression》提出并量化了Elasticity概念,揭示语言模型具有“抗对齐”现象,即使轻微下游微调也会使模型迅速回弹至预训练分布。
本文提出首个大模型推理任务可靠性基准ReliableMath,揭示现有模型在处理无法解问题时的缺陷,并设计了用于评估可靠性的方法和数据集。通过实验分析发现,使用指令性提示可以显著提高模型对不可解问题的回答准确性及可靠性,但小模型仍存在提升空间。
新一届ACL Fellow名单公布,9位杰出学者入选,包括四位华人学者,涵盖自然语言处理、信息提取、问答系统等多个领域。