跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

位置对齐

实践教程|Transformer Decoder-Only 模型批量生成 Trick

下午11时 2024/12/04 作者 极市干货

本文介绍了如何通过调整输入向量的位置和掩码,使得Transformer模型在批量生成时能够更好地模拟训练过程中的情况,从而解决生成与训练阶段的不匹配问题。

分类 学术 标签 Andy、 padding、 pos_ids、 Transformer decoder、 位置对齐、 极市平台 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 盘点RAG中最容易犯的5个错误
  • LangChain的Java版本
  • TTS.cpp:为跨平台设备提供实时开源文本到语音(TTS)解决方案
  • Ragbits:为GenAI应用开发提供强大而灵活的构建模块
  • 无坐标时代来临!微软开源革命性GUI定位神器,注意力机制+多区域预测,适配任意屏幕!

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×