跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

上下文长度扩展比例

Qwen2.5技术报告解读

2024年12月27日14时 作者 机器学习算法与自然语言处理

Qwen团队发布《Qwen2.5 Technical Report》,该报告展示了大规模语言模型在预训练和后训练方面的改进,包括数据集扩展、架构优化和强化学习应用等。

分类 学术 标签 Qwen团队、 上下文长度扩展比例、 大型语言模型(LLMs)、 样本复杂监督微调、 阿里巴巴、 预训练数据集增加 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude Cursor DeepSeek DeepSeek-R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • KDD 2025 图也能变token!STAG首提“软量化”,打通GNN与LLM鸿沟
  • 华为开源7180亿参数大模型!
  • ICCV 2025 打造首个多模态视觉匹配数据集与评测基准,填补MLLM多模态视频匹配能力评测的空白
  • Attention总跑偏?人大×清华联合提出LeaF:剪掉干扰Token,让模型学会主动聚焦
  • 尝试终结Attention Sink起因的讨论

2025 年 8 月
一 二 三 四 五 六 日
 123
45678910
11121314151617
18192021222324
25262728293031
« 7 月    

归档

  • 2025 年 8 月
  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×