LMArena最新AI編程模型排名顯示,Anthropic的Claude、OpenAI的GPT-5與智譜GLM-4.6並列全球第一。這些專爲編程設計的模型能顯著提升代碼編寫、調試和優化效率,推動軟件開發進步。
智譜發佈GLM-4.6模型,採用寒武紀國產芯片,首次實現FP8+Int4混合量化部署。該技術突破在保持模型精度的同時顯著降低推理成本,爲國產芯片支持大模型本地化運行開闢新路徑。
智譜AI發佈並開源新一代模型GLM-4.6,在Agentic Coding等關鍵能力上實現大幅提升。其編程能力已對齊國際頂尖模型Claude Sonnet4,並超越DeepSeek-V3.2-Exp,成爲當前國內最強代碼生成模型。該模型在國產化適配方面取得里程碑進展,已成功部署於寒武紀國產芯片平臺。
Chatglm
$8
輸入tokens/百萬
$16
輸出tokens/百萬
128
上下文長度
$2
-
8
$100
cyankiwi
GLM-4.6 AWQ - INT4是GLM-4.6模型的4位量化版本,採用AWQ量化方法,在保持模型性能的同時顯著減少了存儲和計算資源需求。該模型支持200K上下文長度,在編碼、推理和智能體任務方面相比GLM-4.5有顯著提升。
Wwayu
這是一個基於GLM-4.6架構的混合專家模型,使用REAP方法對專家進行了40%的均勻剪枝,參數量為218B,並轉換為MLX格式的3位量化版本,適用於蘋果芯片設備高效運行。
gghfez
這是GLM-4.6-REAP-266B-A32B模型的Q4_K_M gguf量化版本,基於transformers庫構建,具有文本生成能力。該模型使用了REAP(路由加權專家激活剪枝)方法,能夠選擇性地移除冗餘專家,同時保留路由器對剩餘專家的獨立控制。
這是GLM-4.6-REAP-266B-A32B模型的Q2_K_M gguf量化版本,基於REAP(路由器加權專家激活剪枝)方法創建,能夠在保留路由器對剩餘專家獨立控制的同時,選擇性移除冗餘專家,實現高效的文本生成。
本項目為 GLM-4.6 模型提供了創意寫作控制向量,通過控制向量技術調節模型在特定維度上的表現,如誠實度與馬基雅維利主義傾向、溝通風格等。
mlx-community
這是一個基於GLM-4.6模型轉換的MLX格式版本,採用8位量化技術,分組大小為32,專為蘋果芯片優化,提供高效的文本生成功能。
anikifoss
GLM-4.6的高質量量化版本,採用先進的量化技術在不使用imatrix的情況下實現,保持了良好的模型性能和兼容性,適用於對話等多種應用場景。
bullpoint
GLM-4.6-AWQ是對智譜AI的GLM-4.6(357B MoE)進行高性能AWQ量化的模型,專為vLLM推理進行了優化,能有效提升生產部署的吞吐量。該模型採用4位量化技術,在保持高精度的同時顯著減少顯存佔用。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mix是基於zai-org/GLM-4.6基礎模型的量化版本,在文本生成任務上表現出色。該模型通過GPTQ量化技術實現了模型大小的優化,同時保持了良好的性能表現。
DevQuasar
本項目提供了zai-org/GLM-4.6的量化版本,旨在讓知識為每個人所用。這是一個文本生成模型,基於原始GLM-4.6模型進行優化,提供更高效的推理性能。
ubergarm
基於ik_llama.cpp分支優化的GLM-4.6量化版本,採用先進的IQ量化技術,在保持高質量輸出的同時顯著減少內存佔用。該系列包含多種量化級別,從IQ5_K到IQ1_KT,滿足不同硬件環境下的推理需求。
GLM-4.6-AWQ是基於zai-org/GLM-4.6基礎模型的量化版本,具備高效的文本生成能力。相比GLM-4.5,該模型在上下文窗口、編碼性能、推理能力和智能體功能等方面都有顯著提升。
Downtown-Case
GLM 4.6是一款專為128GB內存+單GPU配置優化的量化模型,採用IQ_K量化方式,相比主流llama.cpp在相同大小下提供更好的質量和性能。該模型需要配合ik_llama.cpp使用,在128GB雙通道DDR5內存、單CCD Ryzen 7000處理器+單張3090顯卡配置下,文本生成速度可達每秒約6.8個token。
unsloth
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個方面有顯著改進,包括更長的上下文窗口、更優的編碼性能和更強的推理能力。該模型在多個公開基準測試中表現出色,與國內外領先模型相比具有競爭優勢。
GLM-4.6是智譜AI開發的新一代大語言模型,相比GLM-4.5在上下文處理、編碼能力和推理性能方面有顯著提升。該模型支持200K上下文長度,在多個公開基準測試中表現出色,特別在代碼生成、推理和代理任務方面具有競爭優勢。
inferencerlabs
GLM-4.6是基於MLX框架的高效文本生成模型,採用6.5bit量化技術,在保持高質量文本生成能力的同時顯著降低計算資源需求。該模型在單臺M3 Ultra設備上即可運行,支持高效的文本生成任務。
這是 GLM-4.6 模型的 5位量化版本,使用 mlx-lm 工具轉換,專為 Apple Silicon 設備優化,提供高效的大語言模型推理能力。
GLM-4.6-4bit是基於zai-org/GLM-4.6模型使用mlx-lm工具轉換的4位量化版本,專門針對Apple Silicon芯片優化,支持中英文文本生成任務。
bartowski
這是GLM-4.6模型的Llamacpp imatrix量化版本,使用llama.cpp b6647版本進行量化。該模型提供了多種量化版本,可在不同硬件條件下運行,滿足不同用戶的需求。所有量化版本均使用imatrix選項,結合了特定數據集進行優化。
zai-org
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在上下文處理、編碼性能、推理能力等方面實現顯著提升,支持200K上下文長度,具備更強的智能體能力和精緻的寫作能力。
GLM-4.6 MCP服務器是一個企業級架構諮詢協議橋接服務,通過模型上下文協議連接Claude 4.5 Sonnet和GLM-4.6,提供系統設計、可擴展性模式和技術決策支持,支持代碼架構分析、系統架構設計和決策審查等功能。