跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

稀疏化技术

Sparse Transformers稀疏推理加速器

2025年6月12日8时 作者 NLP工程化

大模型推理加速器Sparse Transformers通过稀疏化技术提升1.6-1.8倍性能,支持LLaMA 3B模型,并实现内存占用减少和生成速度提升。

分类 开源 标签 6.7倍、 CPU/CUDA双平台、 Transformer大模型、 吴恩达、 斯坦福大学、 稀疏化技术 发表评论

大模型长文本所面临的主要问题

2024年12月5日11时 作者 AI探索时代

大模型在处理长文本时面临输入长度限制、计算资源消耗及上下文保持等问题,提出解决方案包括分段处理、滑动窗口、外部记忆机制等方法。

分类 分享 标签 GPT-3、 上下文信息、 分布式训练、 增量生成、 外部记忆机制、 稀疏化技术 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude Cursor DeepSeek DeepSeek-R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • Meta发布“意念操控”腕带,研究登Nature,要抢马斯克生意?
  • 阶跃发布会划重点:全新基模推理效率可达DeepSeek 300%、芯片大佬站台、神秘资方签约
  • OpenAI会杀死Manus们吗?
  • 阿里开源创新AI Agent:媲美Deep Research,Github每日增长第一
  • AI教父杰弗里·辛顿现身上海参加WAIC 2025,多位人工智能大咖签署“上海共识”

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×