摩爾線程重磅開源兩大AI框架,國產GPU訓練效率突破90%
深度計算領域再添利器!摩爾線程今日重磅宣佈,正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架,這一舉措將爲國產計算基礎設施注入強勁動力。這兩大框架通過深度融合FP8混合訓練策略和高性能算子庫,成功在國產全功能GPU上實現混合並行訓練和推理,大幅提升了大模型訓練的效率與穩定性。摩爾線程此次開源的MT-MegatronLM框架專爲全功能GPU打造,支持dense模型、多模態模型及MoE(混合專家)模型的高效訓練,滿足了當前AI領域多樣化的訓練需求。而MT-TransformerEngine則主攻Transformer模型的訓