Cherry Studio v1.6.4版本發佈,集成全新CherryIN系統,彙集Claude、Gemini、GPT、GLM、Grok、kimi及qwen系列等主流AI模型。該系統簡化多模型訪問,提升用戶體驗。
智譜發佈GLM-4.6模型,採用寒武紀國產芯片,首次實現FP8+Int4混合量化部署。該技術突破在保持模型精度的同時顯著降低推理成本,爲國產芯片支持大模型本地化運行開闢新路徑。
智譜AI發佈並開源新一代模型GLM-4.6,在Agentic Coding等關鍵能力上實現大幅提升。其編程能力已對齊國際頂尖模型Claude Sonnet4,並超越DeepSeek-V3.2-Exp,成爲當前國內最強代碼生成模型。該模型在國產化適配方面取得里程碑進展,已成功部署於寒武紀國產芯片平臺。
智譜推出Claude Code專屬包月套餐,月費僅20元,適用於GLM-4.5及GLM-4.5-Air模型。用戶可通過掃描海報二維碼或訪問bigmodel.cn購買,享受便捷編程服務。
強大的語言模型,支持多種自然語言處理任務。
GLM-PC是基於CogAgent視覺語言大模型構建的電腦智能體,旨在提升電腦使用體驗。
智譜深度推理模型,擅長數理邏輯和代碼推理
端到端中英語音對話模型
chatglm
$0.43
輸入tokens/百萬
$1.01
輸出tokens/百萬
131.1k
上下文長度
$4.03
$7.99
128k
$2.02
$5.98
$0.8
$2
智谱ai
$4.5
$22.5
$0.5
-
Wwayu
這是一個基於GLM-4.6架構的混合專家模型,使用REAP方法對專家進行了40%的均勻剪枝,參數量為218B,並轉換為MLX格式的3位量化版本,適用於蘋果芯片設備高效運行。
noctrex
這是GLM-4.5-Air-REAP-82B-A12B模型的MXFP4_MOE量化版本,專門針對文本生成任務進行了優化。該模型基於cerebras的GLM-4.5-Air-REAP-82B-A12B基礎模型,通過MXFP4混合專家量化技術實現,在保持性能的同時顯著減小模型體積和推理成本。
gghfez
這是GLM-4.6-REAP-266B-A32B模型的Q4_K_M gguf量化版本,基於transformers庫構建,具有文本生成能力。該模型使用了REAP(路由加權專家激活剪枝)方法,能夠選擇性地移除冗餘專家,同時保留路由器對剩餘專家的獨立控制。
這是GLM-4.6-REAP-266B-A32B模型的Q2_K_M gguf量化版本,基於REAP(路由器加權專家激活剪枝)方法創建,能夠在保留路由器對剩餘專家獨立控制的同時,選擇性移除冗餘專家,實現高效的文本生成。
manasmisra
該模型是基於GLM-4.5-Air使用REAP方法進行25%均勻剪枝後的專家混合模型,已轉換為MLX格式的4位量化版本,適用於蘋果芯片設備的高效推理。
Daemontatox
Zirel-3是基於GLM-4.5-Air-REAP-82B-A12B的特定微調模型,採用REAP(路由加權專家激活剪枝)技術壓縮的820億參數混合專家模型,在保持高性能的同時顯著減少模型體積。
nightmedia
基於GLM-4.5-Air模型使用REAP方法進行25%專家剪枝的優化版本,轉換為MLX格式以便在Apple Silicon設備上高效運行
cerebras
GLM-4.5-Air-REAP-82B-A12B 是 GLM-4.5-Air 的高效壓縮版本,通過 REAP 剪枝技術將參數規模從 106B 壓縮到 82B,減少 25% 內存需求,同時保持近乎無損的性能表現。
本項目為 GLM-4.6 模型提供了創意寫作控制向量,通過控制向量技術調節模型在特定維度上的表現,如誠實度與馬基雅維利主義傾向、溝通風格等。
anikifoss
GLM-4.6的高質量量化版本,採用先進的量化技術在不使用imatrix的情況下實現,保持了良好的模型性能和兼容性,適用於對話等多種應用場景。
bullpoint
GLM-4.6-AWQ是對智譜AI的GLM-4.6(357B MoE)進行高性能AWQ量化的模型,專為vLLM推理進行了優化,能有效提升生產部署的吞吐量。該模型採用4位量化技術,在保持高精度的同時顯著減少顯存佔用。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mix是基於zai-org/GLM-4.6基礎模型的量化版本,在文本生成任務上表現出色。該模型通過GPTQ量化技術實現了模型大小的優化,同時保持了良好的性能表現。
DevQuasar
本項目提供了zai-org/GLM-4.6的量化版本,旨在讓知識為每個人所用。這是一個文本生成模型,基於原始GLM-4.6模型進行優化,提供更高效的推理性能。
ubergarm
基於ik_llama.cpp分支優化的GLM-4.6量化版本,採用先進的IQ量化技術,在保持高質量輸出的同時顯著減少內存佔用。該系列包含多種量化級別,從IQ5_K到IQ1_KT,滿足不同硬件環境下的推理需求。
GLM-4.6-AWQ是基於zai-org/GLM-4.6基礎模型的量化版本,具備高效的文本生成能力。相比GLM-4.5,該模型在上下文窗口、編碼性能、推理能力和智能體功能等方面都有顯著提升。
Downtown-Case
GLM 4.6是一款專為128GB內存+單GPU配置優化的量化模型,採用IQ_K量化方式,相比主流llama.cpp在相同大小下提供更好的質量和性能。該模型需要配合ik_llama.cpp使用,在128GB雙通道DDR5內存、單CCD Ryzen 7000處理器+單張3090顯卡配置下,文本生成速度可達每秒約6.8個token。
unsloth
GLM-4.6是智譜AI推出的新一代文本生成模型,相比GLM-4.5在多個方面有顯著改進,包括更長的上下文窗口、更優的編碼性能和更強的推理能力。該模型在多個公開基準測試中表現出色,與國內外領先模型相比具有競爭優勢。
GLM-4.6是智譜AI開發的新一代大語言模型,相比GLM-4.5在上下文處理、編碼能力和推理性能方面有顯著提升。該模型支持200K上下文長度,在多個公開基準測試中表現出色,特別在代碼生成、推理和代理任務方面具有競爭優勢。
inferencerlabs
GLM-4.6是基於MLX框架的高效文本生成模型,採用6.5bit量化技術,在保持高質量文本生成能力的同時顯著降低計算資源需求。該模型在單臺M3 Ultra設備上即可運行,支持高效的文本生成任務。
mlx-community
這是 GLM-4.6 模型的 5位量化版本,使用 mlx-lm 工具轉換,專為 Apple Silicon 設備優化,提供高效的大語言模型推理能力。
基於GLM-4.5V模型的MCP服務器,提供智能圖片分析功能,支持從文件路徑或剪貼板獲取圖片,專門用於代碼內容提取、架構分析、錯誤檢測和文檔生成。
GLM-4.6 MCP服務器是一個企業級架構諮詢協議橋接服務,通過模型上下文協議連接Claude 4.5 Sonnet和GLM-4.6,提供系統設計、可擴展性模式和技術決策支持,支持代碼架構分析、系統架構設計和決策審查等功能。
一個集成GLM-4.5V視覺能力的MCP服務器,支持本地圖片和URL分析,通過Claude Code提供圖像分析功能
GLM-4.5V多模態服務器,提供圖像處理、視覺查詢和文件處理功能