跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

unsloth

DeepSeek-V3-0526 闪现后秒删!

下午11时 2025/05/26 作者 AGI Hunt

Unsloth在文档中提到DeepSeek-V3-0526模型,但随后删除。该模型性能强劲,被描述为世界上表现最好的开源模型之一。Daniel Han认为V3-0526可能基于传言和推测发布。社区对此表示关注和期待。

分类 分享 标签 Claude 4 Opus、 Daniel Han、 DeepSeek-V3-0526、 GPT-4.5、 unsloth、 神秘的发布时间 发表评论

Unsloth 发布了 GRPO 的新互动教程 (ipynb notebook)

上午8时 2025/05/15 作者 NLP工程化

Unsloth 发布了GRPO的新互动教程,用户可以轻松微调Qwen3-Base并开启其思考模式,实现几乎无监督学习。

分类 开源 标签 Google Colab、 GRPO、 Qwen3-Base、 unsloth、 微信buxingtianxia21、 无监督学习 发表评论

Unsloth 发布了 Dynamic v2.0 量化

上午8时 2025/04/26 作者 NLP工程化

Unsloth发布Dynamic v2.0量化版本,在MMLU和KL Divergence上表现更好,并修复了Llama.cpp中的问题,同时推出了新量化版本DeepSeek-R1/DeepSeek-V3-0324。

分类 开源 标签 Dynamic v2.0 量化、 KL Divergence、 MMLU、 RoPE 实现问题、 unsloth、 性能提升 发表评论

Unsloth官方发布本地微调大模型指南

下午11时 2025/03/15 作者 PyTorch研习社

对LLM进行微调可以定制其行为、增强知识并优化特定任务表现。通过在专业数据集上微调预训练模型(如Llama-3.1-8B),更新领域知识,调整语气和个性化回复,提高准确性和相关性。

分类 分享 标签 ChatGPT-4、 DeepSeek-R1、 Llama-3.1-8B、 OpenAI、 unsloth、 微调 发表评论

R1-GRPO用于多模态、ChatBI、Gemma3等前沿进展:兼看KTransformers技术分享回顾

下午2时 2025/03/13 作者 老刘说NLP

enManus-RL增强Agent规划能力训练框架》,https://mp.weixin.qq.co

分类 大模型 标签 ChatBI、 Gemma3、 GRPO、 NLP、 unsloth、 老刘说NLP 发表评论

训练您自己的推理 LLM

下午4时 2025/02/27 作者 NLP工程化

通过Unsloth技术减少90%VRAM使用量训练自己的推理LLM模型

分类 开源 标签 90%、 DeepSeek、 GRPO、 LLM、 unsloth、 VRAM 发表评论

Unsloth 再升级,Qwen2.5-1.5B 模型微调仅需 5GB 显存,较2周前再降29%

下午4时 2025/02/23 作者 AI工程化

近日,Unsloth 团队升级了微调框架,使得使用其Qwen2.5-1.5B模型仅需5GB显存,相比之前减少了约29%。新的Efficient GRPO算法通过优化内存使用效率,使VRAM需求降至原本的54.3GB。

分类 分享 标签 Qwen2.5-1.5B、 unsloth、 UnslothEfficientGRPO、 内存使用效率、 智能异步卸载、 梯度检查点 发表评论

unsloth在微调一个Qwen2.5-1.5B 模型只需要5GB显存

上午8时 2025/02/22 作者 NLP工程化

unsloth优化微调框架,Qwen2.5-1.5B模型微调仅需5GB显存。

分类 开源 标签 Qwen2.5-1.5B、 unsloth、 unsloth.ai、 微调框架优化、 显存要求、 模型训练 发表评论

新手友好的 LLM 微调工具库:unsloth

上午8时 2025/02/14 作者 NLP工程化

该项目是用于微调和优化大型语言模型(LLM)的Python工具库,通过动态量化和显存优化技术提高模型微调速度并降低80%以上显存占用。

分类 开源 标签 70%-80%、 Python工具库、 unsloth、 动态量化、 显存优化技术、 模型微调速度 发表评论

揭秘!如何微调 DeepSeek-R1 推理模型,提升 AI 性能到极致

下午2时 2025/02/11 作者 AI技术研习社

据的主导地位。
最令人兴奋的是,这些革命性的模型完全免费使用,没有任何限制,任何人都可以随时访问并利

分类 大模型 标签 trl、 unsloth、 大型语言模型、 微调、 数据集、 训练参数 发表评论
较早文章
页面1 页面2 下一页 →

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus MCP Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 未来可期的技术栈:Kafka+A2A+MCP+Flink
  • 即梦图片3.0又重磅更新,这可能是对普通人最有用的一次。
  • 远超ChatGPT 4o,自然语言超级P图
  • Gemini 2.5 Pro深夜重磅更新,再次登顶AI竞技场!
  • 获1.3亿美元融资,NewLimit利用机器学习指导表观遗传程序设计,延长人类健康寿命研究已有初级成果

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×