上海AI Lab发布LLM高效Reasoning综述!全面总结如何“少想多做”

MLNLP社区致力于促进机器学习与自然语言处理领域的学术交流与进步。文章介绍了如何解决大型推理模型(LRMs)带来的冗余思考问题,包括字数预算、双系统切换、模型路由等方法,并探讨了未来高效推理的发展方向。

RAG中的chunk质量如何评分?HiRAG对GraphRAG的改进思路及推理大模型用于机器翻译

2025年3月17日的文章介绍了RAG相关进展的三方面内容:推理模型在机器翻译中的应用、量化文本分块的有效性方法,以及通过引入层级结构解决局部信息与全局信息间的差距问题。

全球首发:QwQ-32B本地一键部署、3090单卡可跑,共享算力成关键

阿里开源新一代32亿参数推理模型QwQ-32B,其性能比肩6710亿参数的DeepSeek-R1。QwQ-32B在数学推理、代码生成及通用任务处理能力上实现显著突破,并预示着「最强模型」走进个人设备时代。『算了么』平台提供一键部署方案,让普通人能轻松体验高性能大模型,降低使用门槛。