腾讯混元开源 4 个小尺寸模型,主打 Agent 和长文
腾讯混元开源四款小尺寸模型,参数分别为 0.5B、1.8B、4B、7B,适用于低功耗场景。这些模型具备推理速度快和性价比高的特点,并支持多种终端芯片平台部署,已上线Github和HuggingFace等社区。
腾讯混元开源四款小尺寸模型,参数分别为 0.5B、1.8B、4B、7B,适用于低功耗场景。这些模型具备推理速度快和性价比高的特点,并支持多种终端芯片平台部署,已上线Github和HuggingFace等社区。
腾讯混元开源4款小尺寸模型Hunyuan 0.5B、1.8B、4B和7B,支持单卡部署,并已在多个腾讯应用中落地使用。这些模型具备高效推理能力,在数学能力和长文本处理方面表现突出。
2023年12月27日《Qwen2.5和RoboBrain 2.0在医疗领域与具身智能中的应用》介绍了Qwen2.5用于医疗领域的空间理解模型MedEvalKit以及RoboBrain 2.0 32B用于室内场景建模,强调了它们如何结合医学图像数据进行训练,并生成结构化的3D布局。
小米发布首个为推理而生的大模型MiMo,仅7B参数规模超越OpenAI和阿里Qwen。技术团队强调预训练与后训练协同优化的重要性,通过特定数据合成及创新算法提升推理能力。
MT-R1-Zero首次将R1-Zero范式扩展到机器翻译领域,通过规则-度量混合奖励机制实现无需监督微调的端到端强化学习优化。该方法在多项指标上超越了现有模型。
蚂蚁与清华大学联合推出的AReaL开源强化学习框架发布里程碑版本,提供详细的教程和高性能的SGLang框架集成,大幅提升训练速度,并在数学推理能力上达到同尺寸模型的SOTA水平。
DeepSeek研究团队发表LADDER论文,介绍一种通过递归问题分解和强化学习提升AI模型能力的新方法。该方法使7B规模的Qwen模型在MIT Integration Bee比赛中得分达到90分,超越了o1的成绩。