再聊误区–Deepseek-R1思考过程在使用中的几个问题及对策
DeepSeek R1 在 think 过程中的需求和问题引起了广泛关注,包括输出思考过程的需求、过长或过短的思考时间以及控制思考方向。文章探讨了这些问题,并提出了通过调整模型设置、修改prompt模板和干预token解码采样的方法来解决。
DeepSeek R1 在 think 过程中的需求和问题引起了广泛关注,包括输出思考过程的需求、过长或过短的思考时间以及控制思考方向。文章探讨了这些问题,并提出了通过调整模型设置、修改prompt模板和干预token解码采样的方法来解决。
社区关于Deepseek-R1类推理大模型的三部曲线上交流顺利结束。老刘说NLP技术社区分享NLP、大模型&RAG&文档智能&知识图谱四个主题的知识与技术,现已举办39次线上报告活动,并将持续纳新。
2025年02月22日文章介绍了P2L(Prompt-to-Leaderboard)方法,通过训练一个大型语言模型来预测人类偏好投票,并用于评估和选择最适合特定用例的模型。
2025年02月21日星期x,介绍了大模型推理压缩策略,包括TokenSkip方法用于Controllable Chain-of-Thought(COT),通过分析和剪枝减少冗余token提高推理效率。相关研究文献推荐加入了LoRA微调技术。
今天是2025年02月20日,星期四。文章提到了NLP社区的一则有趣事件,并讨论了R1在多模态推理中的进展,包括视频和图像处理的相关工作及技术细节。
今日2025年02月16日北京晴。老刘的三部曲课程与RAG系列课堂完成,涵盖Deepseek-R1及GraphRAG等大模型知识,包括应用场景、技术原理和复现项目等内容。
2025年02月16日,北京晴天。社区第39讲《DeepseekR1及Deepresearch复现》顺利结束,老刘报告了4小时深度讨论内容。介绍了大模型推理和复现进展,包括DeepSeek-MoE-ResourceMap、OpenR1-Math-Raw等资源库,并展示了OpenThinker-32B在MATH500测试中的表现。研究发现,长链推理的结构比内容更重要。老刘呼吁社区成员参与讨论。