三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭
路由LLM通过预训练Router动态分配任务输入到多个开源小模型,突破大模型研究的算力垄断、成本壁垒和技术路径单一化问题。RouterEval提供了Model-level Scaling Up现象和Oracle Router的概念,揭示了多候选分类挑战和部署复杂度等未来研究方向。
路由LLM通过预训练Router动态分配任务输入到多个开源小模型,突破大模型研究的算力垄断、成本壁垒和技术路径单一化问题。RouterEval提供了Model-level Scaling Up现象和Oracle Router的概念,揭示了多候选分类挑战和部署复杂度等未来研究方向。
中山大学和普渡大学研究人员发现路由LLM范式下的性能随着LLM候选数量的增加而迅速提升的新现象,并通过2亿条记录构建了全面的评测框架RouterEval,该框架允许研究者使用较少计算资源参与研究。