模型崩溃自救指南:5行代码实现TTA鲁棒性飞跃,天大×腾讯开源COME方案
文章介绍了测试时适应(TTA)方法中的熵最小化(EM),并指出其存在的过度自信和模型崩溃问题。COME通过显式不确定性建模和自适应熵优化解决了这些问题,显著提升了模型在各种复杂场景下的预测能力。
文章介绍了测试时适应(TTA)方法中的熵最小化(EM),并指出其存在的过度自信和模型崩溃问题。COME通过显式不确定性建模和自适应熵优化解决了这些问题,显著提升了模型在各种复杂场景下的预测能力。
MLNLP社区致力于促进国内外机器学习与自然语言处理的交流合作。近期发表论文提出推理奖励模型ReasRM,通过两阶段训练让小模型学会写评语,并在综合、数学题等测试集中优于GPT-4。该模型支持任务分类和动态奖励机制,已在多个领域展示优势。
CCL 2025会议延期至8月11-14日在山东济南举行,涵盖计算语言学多领域研究与应用论文征集。新增ARR快速审稿流程,促进学术交流。
姜东志博士提出了一种新型的文本生成图像模型T2I-R1,融合了语义层面和细粒度令牌层面的协同推理策略。该模型通过强化学习方法统一了这两个层次的推理解析过程,并使用集成视觉专家模型作为奖励机制来评估生成图片的质量,显著提高了图像生成的效果。
解统一架构 Janus 的后续版本,借助 Rectified Flow 做生成。
>>
加入极市CV
清华大学团队提出傅里叶位置编码(FoPE),通过鲁棒性强的位置编码克服Transformer在处理长文本时的周期性延拓限制,显著提升模型的长文本泛化能力。