社区供稿 | Hugging Face 又出新教程啦!手把手教你构建 DeepSeek-R1 推理模型
间进行了学习,下面是整理的课程内容
课程链接:
https://hf.co/learn/nlp-co
间进行了学习,下面是整理的课程内容
课程链接:
https://hf.co/learn/nlp-co
Hugging Face 使用基于 Git LFS 的存储方案在 GitHub Hub 上存储模型、数据集和 Spaces。Xet 团队提出了一个创新的解决方案——基于内容的分块 (CDC),通过只传输变化的数据块来提升存储效率和迭代速度,目前该技术已应用于多个仓库,并实现了数据去重。
第三篇《让LLM来评判》系列文章总结了评估模型的通用设计原则,包括清晰的任务描述、精细的评分标准、加入推理步骤和明确输出格式等。同时,也提到使用成对比较、引用参考内容及思维链等方式提升评估准确性,并探讨了奖励机制和社区机制的作用。
Ovis2是阿里巴巴提出的新型多模态大模型架构,显著提升了小规模和大规模模型的能力密度,并增强了思维链推理能力、视频处理能力和多语言OCR能力。它已在OpenCompass上展示了卓越的性能,并在多个数学推理榜单中排名前列。
奖励模型通过学习人工标注的成对 prompt 数据来预测分数,用于评估语言模型的表现。它们比传统LLM评估模型更快速且具有确定性,但需要特定微调和考虑位置偏差影响。
上海AI实验室联合团队推出Mini-InternVL多模态大模型,仅5%参数量实现90%性能,支持自动驾驶、医学图片感知等垂类任务。