从GPT-5到DeepSeek V3.1,顶尖AI大模型的新方向出现了!

随着大模型的复杂性增加,完成任务所需的token数量也在增长。业界正从追求模型能力上限转向计算效率,混合推理成为共识。美团开源的LongCat-Flash在保持高性能的同时实现了算力节省。AI行业面临成本上升的压力,正在探索混合推理模式来优化性能与成本的关系。

大型语言模型的“推理升级”:自适应策略让AI更聪明

MLNLP社区发布了一篇关于提升大型语言模型复杂推理能力的研究论文《MixtureofReasoning》。文章提出一种新的训练框架MoR,使模型能够自主选择和应用多种推理策略,显著提升了模型在多个数据集上的表现。

终于,它来了!Qwen3深夜发布,再次登顶全球大模型开源王座,再见DeepSeek。

Qwen3今日发布,参数量2350亿的旗舰模型Qwen3-235B-A22B超越多个模型。亮点包括混合思维模式、多语言支持和增强代理能力;预训练数据集涵盖119种语言,计算成本更低;链接见原文。

重磅!Anthropic 发布新一代混合推理模型Claude 3.7 Sonnet,编程能力再上台阶

Anthropic公司发布了Claude 3.7 Sonnet和Claude Code两个模型,前者具备混合推理能力,后者则是一个面向开发者的智能编码助手。Claude 3.7 Sonnet在编码和前端网页开发方面表现出强大的性能,并能更好地处理复杂的代码库。Claude Code作为命令行工具,简化了开发者的工作流程,能够进行多种编码任务,如编写测试、提交代码等,显著减少了开发时间和工作量。