跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

分布式训练

CUDA-MODE课程笔记 第17课 GPU集合通信(NCCL)

2024年12月31日14时 作者 GiantPandaCV

我的课程笔记,欢迎关注:https://github.com/BBuf/how-to-optim-a

分类 学术 标签 GPU集群、 NVIDIA NCCL、 PyTorch DDP、 Ring AllReduce、 分布式训练、 数据传输 发表评论

最新!Yann LeCun:AI将成为超级智能,堪比新的文艺复兴,人类新的启蒙

2024年12月23日8时 作者 AI寒武纪

老杨在全球演讲中强调,未来人工智能应是开源和分布式的。他指出基础模型必须开放且可访问,并建议通过合作建立全球分布式训练中心来推动AI发展。

分类 国际、 资讯 标签 促进国际合作、 分布式训练、 开源基础模型、 老杨、 联合国、 自由和开放 发表评论

​NeurIPS 2024|让模型预见分布漂移:动态系统颠覆性设计引领时域泛化新革命

2024年12月11日8时 作者 极市干货

↑ 点击
蓝字
关注极市平台
作者丨PaperWeekly
来源丨PaperWeekly
编辑丨极市

分类 学术 标签 Koodos、 Transformer、 分布式训练、 模型剪枝、 自回归生成器、 量化 发表评论

大模型长文本所面临的主要问题

2024年12月5日11时 作者 AI探索时代

大模型在处理长文本时面临输入长度限制、计算资源消耗及上下文保持等问题,提出解决方案包括分段处理、滑动窗口、外部记忆机制等方法。

分类 分享 标签 GPT-3、 上下文信息、 分布式训练、 增量生成、 外部记忆机制、 稀疏化技术 发表评论
较新文章
← 上一页 页面1 页面2

AGI AI AI技术 Anthropic ChatGPT Claude Cursor DeepSeek DeepSeek-R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • Cursor 中最受欢迎的 5 个 MCP Server!
  • 从GPT-5到DeepSeek V3.1,顶尖AI大模型的新方向出现了!
  • “AI购物代理”——电商下一个必争之地
  • 无账号&特殊网络,如何畅跑 Claude Code|附智谱「特别折扣」
  • 文档多模态RAG方案哪个更好?9类Embedding+3类MLLM+4类框架对比及古籍文档数据合成工具

2025 年 10 月
一 二 三 四 五 六 日
 12345
6789101112
13141516171819
20212223242526
2728293031  
« 9 月    

归档

  • 2025 年 9 月
  • 2025 年 8 月
  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×