智譜AI開源模型GLM-4.7-Flash發佈兩週,在Hugging Face下載量突破100萬。這款30B-A3B混合思考模型性能強勁,在SWE-bench Verified和τ²-Bench等測試中,綜合表現超越gpt-oss-20b及Qwen3-30B-A3B-Thinking-2507,在同尺寸模型中領先。
智譜AI開源最新“混合思考”模型GLM-4.4-Flash,採用30B-A3B MoE架構,總參數量300億,實際激活約30億參數。該模型在保持輕量化部署優勢的同時,憑藉卓越推理與編碼能力,登頂同類規格模型性能榜首,成爲30B級別中的“全能王者”。
Chatglm
-
輸入tokens/百萬
輸出tokens/百萬
128
上下文長度