小红书开源142B参数MoE大模型dots.llm1,AI赋能的Paperless-ngx文档管理工具

本文介绍了五项最新技术项目,包括大规模MoE模型dots.llm1、Paperless-gpt文档管理工具、深度研究报告生成器Open Deep Research MCP Server、多智能体金融交易框架TradingAgents以及零监督多智能体系统设计MAS-Zero。这些项目涵盖了人工智能在不同领域的应用,如语言建模、数据处理、报告生成和智能体协作等。

小红书hi lab首次开源文本大模型,训练资源不到Qwen2.5 72B 的四分之一

小红书 hi lab 发布开源文本大模型 dots.llm1,参数量为 1420亿(142B),上下文长度32K。采用轻量级数据处理流程和MoE架构训练,相比Qwen2.5-72B在预训练阶段仅需13万GPU小时。支持多轮对话、知识理解与问答等任务,在多个测试中表现突出。