LLM MOE的进化之路

LLM MOE的进化之路,从普通简化 MOE,到 sparse moe,再到 deepseek 使用的 share_expert sparse moe。本次课一共讲解三个不同版本的 MOE。

  1. 基础版MOE。理解 MOE 在干什么?
  2. 大模型训练用的 SparseMoE。了解大模型怎么做 MOE 训练?
  3. Deepseek 用的 shared_expert SparseMoE。了解 MOE 模型如何进化?

参考文献:
[1] https://bruceyuan.com/llms-zero-to-hero/the-way-of-moe-model-evolution.html



(文:NLP工程化)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往