百度文心新模型ERNIE-4.5-21B-A3B-Thinking強勢登頂Hugging Face榜首
近日,百度旗下文心大模型家族迎來重大升級——ERNIE-4.5-21B-A3B-Thinking正式開源,並在Hugging Face平臺迅速登頂文本生成模型榜單首位,同時位居整體模型榜第三。這款輕量級Mixture-of-Experts(MoE)模型以其卓越的推理能力和參數效率,引發行業廣泛關注,標誌着中國AI開源生態的又一里程碑。模型核心規格與創新設計ERNIE-4.5-21B-A3B-Thinking採用先進的MoE架構,總參數規模爲21B,但每個token僅激活3B參數。這種稀疏激活機制顯著降低了計算開銷,同時保持了高性能輸出。該模型支持128K長上下文窗口