阿里通义开源「推理+搜索」预训练新框架:小模型媲美大模型,多个开放域问答数据集表现显著提升
阿里通义实验室发布MaskSearch预训练框架,提升大模型推理搜索能力,在多个开放域问答数据集上显著性能提升。该框架结合检索增强型掩码预测任务与监督微调、强化学习两种训练方法。
阿里通义实验室发布MaskSearch预训练框架,提升大模型推理搜索能力,在多个开放域问答数据集上显著性能提升。该框架结合检索增强型掩码预测任务与监督微调、强化学习两种训练方法。
阿里通义实验室开源ZeroSearch,无需真实搜索引擎即可训练大模型检索-推理能力。通过模拟搜索引擎和课程式学习策略,仅需3B参数的LLM即可有效提升搜索性能,节省API成本,并兼容多种强化学习算法。
阿里通义实验室提出PC-Agent框架,实现复杂PC任务自动化。该框架通过主动感知模块和层次化多智能体协作结构处理跨应用工作流指令。实验表明其在复杂任务上表现优于现有方法。
阿里通义实验室推出的MinMo多模态大型语言模型在语音交互领域表现卓越,能够实现无缝语音交互,支持多种任务处理和多样化可控生成。其主要功能包括全双工语音交互、多样化可控生成以及多任务处理能力。应用场景涵盖智能客服、语音助理、人机对话系统及语音翻译等场景。