LMArena最新AI编程模型排名显示,Anthropic的Claude、OpenAI的GPT-5与智谱GLM-4.6并列全球第一。这些专为编程设计的模型能显著提升代码编写、调试和优化效率,推动软件开发进步。
智谱发布GLM-4.6模型,采用寒武纪国产芯片,首次实现FP8+Int4混合量化部署。该技术突破在保持模型精度的同时显著降低推理成本,为国产芯片支持大模型本地化运行开辟新路径。
智谱AI发布并开源新一代模型GLM-4.6,在Agentic Coding等关键能力上实现大幅提升。其编程能力已对齐国际顶尖模型Claude Sonnet4,并超越DeepSeek-V3.2-Exp,成为当前国内最强代码生成模型。该模型在国产化适配方面取得里程碑进展,已成功部署于寒武纪国产芯片平台。
Chatglm
$8
输入tokens/百万
$16
输出tokens/百万
128
上下文长度
$2
-
8
$100
cyankiwi
GLM-4.6 AWQ - INT4是GLM-4.6模型的4位量化版本,采用AWQ量化方法,在保持模型性能的同时显著减少了存储和计算资源需求。该模型支持200K上下文长度,在编码、推理和智能体任务方面相比GLM-4.5有显著提升。
Wwayu
这是一个基于GLM-4.6架构的混合专家模型,使用REAP方法对专家进行了40%的均匀剪枝,参数量为218B,并转换为MLX格式的3位量化版本,适用于苹果芯片设备高效运行。
gghfez
这是GLM-4.6-REAP-266B-A32B模型的Q4_K_M gguf量化版本,基于transformers库构建,具有文本生成能力。该模型使用了REAP(路由加权专家激活剪枝)方法,能够选择性地移除冗余专家,同时保留路由器对剩余专家的独立控制。
这是GLM-4.6-REAP-266B-A32B模型的Q2_K_M gguf量化版本,基于REAP(路由器加权专家激活剪枝)方法创建,能够在保留路由器对剩余专家独立控制的同时,选择性移除冗余专家,实现高效的文本生成。
本项目为 GLM-4.6 模型提供了创意写作控制向量,通过控制向量技术调节模型在特定维度上的表现,如诚实度与马基雅维利主义倾向、沟通风格等。
mlx-community
这是一个基于GLM-4.6模型转换的MLX格式版本,采用8位量化技术,分组大小为32,专为苹果芯片优化,提供高效的文本生成功能。
anikifoss
GLM-4.6的高质量量化版本,采用先进的量化技术在不使用imatrix的情况下实现,保持了良好的模型性能和兼容性,适用于对话等多种应用场景。
bullpoint
GLM-4.6-AWQ是对智谱AI的GLM-4.6(357B MoE)进行高性能AWQ量化的模型,专为vLLM推理进行了优化,能有效提升生产部署的吞吐量。该模型采用4位量化技术,在保持高精度的同时显著减少显存占用。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mix是基于zai-org/GLM-4.6基础模型的量化版本,在文本生成任务上表现出色。该模型通过GPTQ量化技术实现了模型大小的优化,同时保持了良好的性能表现。
DevQuasar
本项目提供了zai-org/GLM-4.6的量化版本,旨在让知识为每个人所用。这是一个文本生成模型,基于原始GLM-4.6模型进行优化,提供更高效的推理性能。
ubergarm
基于ik_llama.cpp分支优化的GLM-4.6量化版本,采用先进的IQ量化技术,在保持高质量输出的同时显著减少内存占用。该系列包含多种量化级别,从IQ5_K到IQ1_KT,满足不同硬件环境下的推理需求。
GLM-4.6-AWQ是基于zai-org/GLM-4.6基础模型的量化版本,具备高效的文本生成能力。相比GLM-4.5,该模型在上下文窗口、编码性能、推理能力和智能体功能等方面都有显著提升。
Downtown-Case
GLM 4.6是一款专为128GB内存+单GPU配置优化的量化模型,采用IQ_K量化方式,相比主流llama.cpp在相同大小下提供更好的质量和性能。该模型需要配合ik_llama.cpp使用,在128GB双通道DDR5内存、单CCD Ryzen 7000处理器+单张3090显卡配置下,文本生成速度可达每秒约6.8个token。
unsloth
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个方面有显著改进,包括更长的上下文窗口、更优的编码性能和更强的推理能力。该模型在多个公开基准测试中表现出色,与国内外领先模型相比具有竞争优势。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
inferencerlabs
GLM-4.6是基于MLX框架的高效文本生成模型,采用6.5bit量化技术,在保持高质量文本生成能力的同时显著降低计算资源需求。该模型在单台M3 Ultra设备上即可运行,支持高效的文本生成任务。
这是 GLM-4.6 模型的 5位量化版本,使用 mlx-lm 工具转换,专为 Apple Silicon 设备优化,提供高效的大语言模型推理能力。
GLM-4.6-4bit是基于zai-org/GLM-4.6模型使用mlx-lm工具转换的4位量化版本,专门针对Apple Silicon芯片优化,支持中英文文本生成任务。
bartowski
这是GLM-4.6模型的Llamacpp imatrix量化版本,使用llama.cpp b6647版本进行量化。该模型提供了多种量化版本,可在不同硬件条件下运行,满足不同用户的需求。所有量化版本均使用imatrix选项,结合了特定数据集进行优化。
zai-org
GLM-4.6是智谱AI推出的新一代文本生成模型,相比GLM-4.5在上下文处理、编码性能、推理能力等方面实现显著提升,支持200K上下文长度,具备更强的智能体能力和精致的写作能力。
GLM-4.6 MCP服务器是一个企业级架构咨询协议桥接服务,通过模型上下文协议连接Claude 4.5 Sonnet和GLM-4.6,提供系统设计、可扩展性模式和技术决策支持,支持代码架构分析、系统架构设计和决策审查等功能。