上下文长度
阿里Qwen2.5-1M开源,仅320G可推理14B百万token
阿里千问开源了Qwen 2.5-1M模型及其对应的推理框架,支持百万Token上下文处理,并分享了训练和推理框架的设计细节及消融实验结果。
阿里发布Qwen2.5-Turbo,支持100万Tokens上下文!
专注AIGC领域的专业社区报道了阿里发布Qwen2.5-Turbo版本,其上下文长度从128K扩展至100万tokens,显著提升处理复杂长文本能力,并在保持价格不变的情况下实现了4.3倍的推理速度提升。