重磅开源!首个全异步强化学习训练系统来了,SOTA推理大模型RL训练提速2.77倍 2025年6月5日8时 作者 机器之心 高门槛劝退?AReaL 全面升级,更快,更强,更好用! 来自清华大学交叉信息院和蚂蚁技术研究院的联合
CVPR’25|生成性能提升不靠堆参数!MaskUNet:基于掩码的扩散模型生成能力增强方法 2025年5月29日23时 作者 极市干货 MaskUNet 的新方法,通过对扩散模型中的 U-Net 参数进行掩蔽,显著提升了图像生成质量。
长推理≠高精度!自适应切换“秒答”与“深思”:省Token与提精度的双赢哲学 2025年5月27日16时 作者 PaperWeekly 现。但过度依赖思维链(CoT)推理会降低模型性能,产生冗长输出,影响效率。 研究发现,长 CoT 推
腾讯混元TurboS技术报告首次全公开:560B参数混合Mamba架构,自适应长短链融合 2025年5月23日8时 作者 AI前线 混元旗舰大语言模型TurboS位列全球 第7,在国内大模型中仅次于Deepseek。放眼国际,排在前
阿里Qwen3真实测评:MCP、推理、数学、代码、文学…(OpenAI、DeepSeek、Claude等六家PK) 2025年4月30日14时 作者 卡尔的AI沃茨 考模式/非思考模式」的无缝切换、八款不同大小模型,从0.6B到235B,包含 MoE 和 Dense