Qwen突破:用「并行计算」代替「堆参数」,新方法内存降22倍、延迟降6倍

MLNLP社区发布论文《Parallel Scaling Law for Language Models》提出ParScale技术,让模型在保持参数不变的情况下通过并行计算提升性能,推理效率提升22倍,实现高效省资源扩展。

学会用工具看图:准确率碾压GPT-4.1,开源框架让模型拥有“视觉思维”

MLNLP社区致力于促进国内外自然语言处理领域的交流与进步。该社区引入了开源框架OpenThinkIMG以解决现有模型在图表分析中的问题,通过强化学习训练提升AI工具调用效率和准确性。