MiniMax押注线性注意力让长文本训练速度基本不变 上午8时 2025/04/17 作者 NLP工程化 MiniMax-01通过线性注意力实现了4560亿参数的高效模型,克服了softmax瓶颈,并在多个关键技术上取得进展。
Kimi开源俩轻量级多模态模型,参数仅2.8B 跑赢GPT-4o、Qwen2.5-VL-7B 下午2时 2025/04/14 作者 AI先锋官 Kimi团队发布开源的Kimi-VL和Kimi-VL-Thinking多模态模型,参数量分别为28亿激活参数和2.8B。模型在多个基准测试中表现出色,并采用MoE架构提高效率。
小模型也能玩转RAG!性能仅降1%,存储省75%,边缘设备轻松跑 下午4时 2025/01/23 作者 量子位 MiniRAG团队 投稿 量子位 | 公众号 QbitAI 检索增强生成(RAG)虽好,但一直面临着