跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

分布式训练

CUDA-MODE课程笔记 第17课 GPU集合通信(NCCL)

2024年12月31日14时 作者 GiantPandaCV

我的课程笔记,欢迎关注:https://github.com/BBuf/how-to-optim-a

分类 学术 标签 GPU集群、 NVIDIA NCCL、 PyTorch DDP、 Ring AllReduce、 分布式训练、 数据传输 发表评论

最新!Yann LeCun:AI将成为超级智能,堪比新的文艺复兴,人类新的启蒙

2024年12月23日8时 作者 AI寒武纪

老杨在全球演讲中强调,未来人工智能应是开源和分布式的。他指出基础模型必须开放且可访问,并建议通过合作建立全球分布式训练中心来推动AI发展。

分类 国际、 资讯 标签 促进国际合作、 分布式训练、 开源基础模型、 老杨、 联合国、 自由和开放 发表评论

​NeurIPS 2024|让模型预见分布漂移:动态系统颠覆性设计引领时域泛化新革命

2024年12月11日8时 作者 极市干货

↑ 点击
蓝字
关注极市平台
作者丨PaperWeekly
来源丨PaperWeekly
编辑丨极市

分类 学术 标签 Koodos、 Transformer、 分布式训练、 模型剪枝、 自回归生成器、 量化 发表评论

大模型长文本所面临的主要问题

2024年12月5日11时 作者 AI探索时代

大模型在处理长文本时面临输入长度限制、计算资源消耗及上下文保持等问题,提出解决方案包括分段处理、滑动窗口、外部记忆机制等方法。

分类 分享 标签 GPT-3、 上下文信息、 分布式训练、 增量生成、 外部记忆机制、 稀疏化技术 发表评论
较新文章
← 上一页 页面1 页面2

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 造梦师手记,群山深处的巨人:Colossus Project
  • 大模型训练的不稳定性有望彻底解决,MIT新研究用谱正则化替代层归一化
  • 秒杀传统机型50倍!东京大学研发 “攀爬高手”,突破四足机器人地形瓶颈!
  • 近亿元B轮融资!这家六维力传感器企业连续三年收入翻倍!产品市占率达70%
  • 12306购票查询 MCP 服务

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×