AIBase
首頁
AI資訊
AI產品庫
模型廣場
MCP服务
AI服務
算力市場
AI應用指南
數據集市
TW

AI資訊

查看更多

DeepSeek發佈大模型訓練端到端論文,展示卓越工程深度

近日,DeepSeek發佈了一篇關於大模型訓練的最佳端到端技術論文,引發業界廣泛關注。該論文全面闡述了DeepSeek在大模型研發中的技術突破,涵蓋軟件、硬件及混合優化方案,展現了其令人驚歎的工程深度。在**軟件**層面,論文詳細介紹了多頭潛在注意力機制(MLA),顯著降低推理過程中的內存佔用;FP8混合精度訓練通過低精度計算提升效率,同時保證數值穩定性;DeepEP通信庫優化了專家並行(EP)通信,支持FP8低精度操作,加速MoE模型訓練與推理;LogFMT對數浮點格式則通過均勻化激活分佈,進一

15.2k 1 天前
DeepSeek發佈大模型訓練端到端論文,展示卓越工程深度

DeepSeek開源周第二日:首個面向MoE模型的開源EP通信庫

Deepseek 公佈了開源周第二天的產品,首個面向MoE模型的開源EP通信庫,支持實現了混合專家模型訓練推理的全棧優化。DeepEP 是一個專爲混合專家(MoE)和專家並行(EP)設計的高效通信庫。它致力於提供高吞吐量和低延遲的多對多 GPU 內核,通常被稱爲 MoE 調度和組合。DeepEP 不僅支持 FP8等低精度操作,還與 DeepSeek-V3論文提出的組限制門控算法相一致,優化了不對稱域帶寬轉發的內核,例如將數據從 NVLink 域轉發至 RDMA 域。這些內核具有高吞吐量,非常適合於訓練和推理預填充任務,並且可以對

15.4k 1 天前
DeepSeek開源周第二日:首個面向MoE模型的開源EP通信庫
AIBase
智啟未來,您的人工智能解決方案智庫
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商務合作網站地圖