["淘天集團聯合愛橙科技開源大模型訓練框架 Megatron-LLaMA","框架能夠提升大語言模型訓練性能","降低訓練成本","保持和 LLaMA 社區的兼容性","在 32 卡訓練上能夠取得 176% 的加速"]