DeepSeek開源周第二日:首個面向MoE模型的開源EP通信庫
Deepseek 公佈了開源周第二天的產品,首個面向MoE模型的開源EP通信庫,支持實現了混合專家模型訓練推理的全棧優化。DeepEP 是一個專爲混合專家(MoE)和專家並行(EP)設計的高效通信庫。它致力於提供高吞吐量和低延遲的多對多 GPU 內核,通常被稱爲 MoE 調度和組合。DeepEP 不僅支持 FP8等低精度操作,還與 DeepSeek-V3論文提出的組限制門控算法相一致,優化了不對稱域帶寬轉發的內核,例如將數據從 NVLink 域轉發至 RDMA 域。這些內核具有高吞吐量,非常適合於訓練和推理預填充任務,並且可以對