NeurIPS 2024 已开源!港科广团队提出Hawk:面向开放世界的视频异常理解框架 2025年3月19日16时 作者 PaperWeekly 通事故等,从而减少人工干预、提高效率。在大模型时代,随着大规模预训练模型,尤其是视觉语言模型(VLM
Unsloth官方发布本地微调大模型指南 2025年3月15日23时 作者 PyTorch研习社 对LLM进行微调可以定制其行为、增强知识并优化特定任务表现。通过在专业数据集上微调预训练模型(如Llama-3.1-8B),更新领域知识,调整语气和个性化回复,提高准确性和相关性。
首个大模型后训练方法综述 2025年3月14日8时 作者 NLP工程化 国内外研究者综述了LLM的后训练方法进展及五种范式(微调、对齐、推理、效率和集成适应),并介绍了相关数据集与应用场景,同时讨论了当前面临的伦理问题及未来方向。
长文本有了专属困惑度!北大、MIT、阿里推出LongPPL新指标 2025年3月9日23时 作者 机器之心 。 传统上,困惑度(Perplexity, PPL)被视为衡量模型语言理解与生成质量的标准指标——困
重磅!NeoBERT横空出世:2.1万亿token训练,开源碾压传统编码器 2025年3月4日23时 作者 AGI Hunt ude、Grok、DeepSeek 这些对话式 AI 迷得神魂颠倒时,却很少有人意识到,这些模型仅仅
DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码 2025年3月2日12时 作者 机器之心 ive Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们
零基础入门:DeepSeek微调的评测教程来了! 2025年2月28日19时 作者 Datawhale 望通过比较通俗的方式给大家直观感受大模型微调后的效果,相关是思路想法旨在起到抛砖引玉的效果,如果学习
DeepSeek-R1超高幻觉率解析:为何大模型总“胡说八道”? 2025年2月13日12时 作者 硅星人Pro 出色,但“幻觉”问题依然是它面临的一大挑战。 在Vectara HHEM人工智能幻觉测试(行业权威测
揭秘!如何微调 DeepSeek-R1 推理模型,提升 AI 性能到极致 2025年2月11日14时 作者 AI技术研习社 据的主导地位。 最令人兴奋的是,这些革命性的模型完全免费使用,没有任何限制,任何人都可以随时访问并利
一篇最新大模型GraphRAG技术系统性综述 2025年1月31日19时 作者 PaperAgent GraphRAG 通过图结构化的知识表示、高效的图检索和结构感知的知识整合,解决了传统RAG的局限性