性能比肩DeepSeek-R1,MiniMax仅花380万训出推理大模型性价比新王|开源
国产推理大模型MiniMax-M1开源,支持高达10万token生成。其混合注意力架构和CISPO算法提升了训练效率,并在多个基准测试中表现优异。
国产推理大模型MiniMax-M1开源,支持高达10万token生成。其混合注意力架构和CISPO算法提升了训练效率,并在多个基准测试中表现优异。
表现良好的 MindIE 推理引擎
,并原生支持 Atlas 800 A2 系列和 Atlas 30
MiniMax举办开源周活动,正式发布最新推理模型MiniMax-M1,支持100万token输入与8万token输出,参数量达4560亿。通过大规模强化学习训练,仅耗资53.47万美元。该模型采用混合注意力架构和闪电注意力机制,显著提升推理效率,并在复杂任务中表现突出。
DeepSeek 更新其R1推理模型至0528版本,提升性能并参加LMArena大模型公共基准测试平台的排行榜,DeepSeek-R1(0528)在文本、编程、数学等多个领域排名领先。
Keller Jordan介绍其优化器Muon,用于神经网络隐藏层参数优化,在NanoGPT和CIFAR-10应用中显著提高训练速度,并与原文献链接。
小红书大模型 dots.llm1 已经被 llama.cpp 支持,本地用户可以使用 llama.cpp 作为推理引擎生成小红书风格内容。
PDF等非结构化数据精准地转换成结构化数据(如Markdown、JSON)已成为行业待解决的关键问题