再聊误区–Deepseek-R1思考过程在使用中的几个问题及对策

DeepSeek R1 在 think 过程中的需求和问题引起了广泛关注,包括输出思考过程的需求、过长或过短的思考时间以及控制思考方向。文章探讨了这些问题,并提出了通过调整模型设置、修改prompt模板和干预token解码采样的方法来解决。

大模型+知识图谱+RAG+文档智能技术及落地:老刘说NLP技术社区对外纳新

社区关于Deepseek-R1类推理大模型的三部曲线上交流顺利结束。老刘说NLP技术社区分享NLP、大模型&RAG&文档智能&知识图谱四个主题的知识与技术,现已举办39次线上报告活动,并将持续纳新。

大模型推理部署的几个基本认知及prompt压缩策略用于COT推理微调尝试

2025年02月21日星期x,介绍了大模型推理压缩策略,包括TokenSkip方法用于Controllable Chain-of-Thought(COT),通过分析和剪枝减少冗余token提高推理效率。相关研究文献推荐加入了LoRA微调技术。

Deepseek R1及Deep research复现回顾及近期前沿进展速递

2025年02月16日,北京晴天。社区第39讲《DeepseekR1及Deepresearch复现》顺利结束,老刘报告了4小时深度讨论内容。介绍了大模型推理和复现进展,包括DeepSeek-MoE-ResourceMap、OpenR1-Math-Raw等资源库,并展示了OpenThinker-32B在MATH500测试中的表现。研究发现,长链推理的结构比内容更重要。老刘呼吁社区成员参与讨论。