Qwen
CVPR 2025 Tutorial:从视频生成到世界模型 MMLab@NTU团队&快手可灵等联合呈现
CVPR 2025 Tutorial探讨视频生成作为世界模型的潜力,涵盖学术界与产业界的最新研究。
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
近期清华大学团队提出的研究表明,在强化学习训练大模型时,仅使用20%的高熵token就能显著提升模型性能。研究指出80%低熵token会影响模型推理能力,并可能起到负面作用。
阿里开源长文本深度思考模型!渐进式强化学习破解长文本训练难题,登HuggingFace热榜
阿里开源的QwenLong-L1模型在HuggingFace今日热门论文第二,其32B参数版本性能优秀。对比基础模型,QwenLong-L1通过回溯和验证机制成功处理了长文本推理中的干扰信息问题,准确计算了金融文档中涉及优先票据发行成本与第一年利息支出合并的总资本成本。
提升检索精度的秘密武器:微调重排序模型实战指南
在这篇文章中,我介绍了微调重排序模型的方法,并详细讨论了准备数据和微调自定义重排序器的过程。通过使用跨编码器来重新排序检索到的文档,可以提高生成模型输出的准确性和上下文相关性。