智譜AI開源最新“混合思考”模型GLM-4.4-Flash,採用30B-A3B MoE架構,總參數量300億,實際激活約30億參數。該模型在保持輕量化部署優勢的同時,憑藉卓越推理與編碼能力,登頂同類規格模型性能榜首,成爲30B級別中的“全能王者”。
Chatglm
-
輸入tokens/百萬
輸出tokens/百萬
128
上下文長度