跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

剪枝策略

YOPO (You Only Prune Once):给LLaVA做剪枝,大幅缩减多模态大模型计算量至12%!

2024年12月2日23时 作者 极市干货

本文提出了一系列剪枝策略,将LLaVA模型的计算量压缩至12%,同时保持了与原始模型同等的性能,并在其他多模态大模型上验证其普适性。

分类 学术 标签 LLaVA、 LQA-1.5、 剪枝策略、 稀疏前馈网络、 视觉注意力、 非活跃头 发表评论

YOPO (You Only Prune Once):大幅缩减多模态大模型计算量至12%

2024年12月2日14时 作者 PaperWeekly

TL;DR
本文提出从参数和计算模式层面对多模态大模型做剪枝,以 LLaVA 为实验对象将计算量压缩

分类 大模型、 学术 标签 GQA任务、 LLaVA模型、 VQAv2任务、 剪枝策略、 多模态大模型、 视觉计算冗余优化 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude Cursor DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 一个基于 Rust 打造的高性能分布式存储系统:RustFS
  • Qwen3 8B 的 BitNet 版本
  • 一份系统性的 LLM 微调实战指南:FineTuningLLMs
  • 一个第三方魔改的DeekSeek模型,省流:性能比V3好,速度比RI快
  • 5.4K Star蓝牙通讯革命!火爆 GitHub 的去中心化通信神器 BitChat 开源了!

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×