LMArenaによる最新のAIプログラミングモデルランキングによると、AnthropicのClaude、OpenAIのGPT-5および智譜GLM-4.6が世界でトップに並んでいます。これらのプログラミングに特化したモデルは、コードの作成・デバッグ・最適化の効率を著しく向上させ、ソフトウェア開発を促進しています。
ズーピーはGLM-4.6モデルを発表し、ハルビンジの国内チップを採用し、FP8+Int4の混合量子化配置を初めて実現しました。この技術的突破はモデルの精度を維持しながら推論コストを大幅に削減し、国内チップが大規模モデルのローカル実行をサポートする新しい道を開きました。
智谱AIが新モデルGLM-4.6をリリースし、プログラミング能力でClaude Sonnet4に匹敵。国内最強のコード生成モデルとなり、寒武紀チップへの展開にも成功。....
Chatglm
$8
入力トークン/百万
$16
出力トークン/百万
128
コンテキスト長
$2
-
8
$100
cyankiwi
GLM-4.6 AWQ - INT4はGLM-4.6モデルの4ビット量子化バージョンで、AWQ量子化方法を採用し、モデルの性能を維持しながら、記憶と計算リソースの需要を大幅に削減します。このモデルは200Kのコンテキスト長をサポートし、コーディング、推論、エージェントタスクにおいてGLM-4.5よりも著しく向上しています。
Wwayu
これはGLM-4.6アーキテクチャに基づく混合専門家モデルで、REAP方法を使用して専門家を40%均一に剪定し、パラメータ数は218Bで、MLX形式の3ビット量子化バージョンに変換され、Appleチップデバイスでの高効率実行に適しています。
gghfez
これはGLM-4.6-REAP-266B-A32BモデルのQ4_K_M gguf量子化バージョンで、transformersライブラリに基づいて構築され、テキスト生成能力を持っています。このモデルはREAP(ルーティング重み付き専門家活性化剪定)方法を使用しており、冗長な専門家を選択的に削除すると同時に、残りの専門家に対するルーターの独立した制御を維持することができます。
これはGLM-4.6-REAP-266B-A32BモデルのQ2_K_M gguf量子化バージョンで、REAP(ルーターの重み付き専門家活性化枝刈り)方法に基づいて作成され、ルーターが残りの専門家を独立して制御したまま、冗長な専門家を選択的に削除し、効率的なテキスト生成を実現します。
このプロジェクトはGLM-4.6モデルにクリエイティブライティング制御ベクトルを提供し、制御ベクトル技術を通じてモデルの特定の次元での性能を調整します。例えば、誠実さとマキアヴェリズム傾向、コミュニケーションスタイルなどです。
mlx-community
これはGLM-4.6モデルを変換したMLX形式のバージョンで、8ビット量子化技術を採用し、グループサイズは32で、Appleチップ用に最適化され、効率的なテキスト生成機能を提供します。
anikifoss
GLM-4.6の高品質量子化バージョンで、先進的な量子化技術を用いてimatrixを使用せずに実現され、良好なモデル性能と互換性を維持し、対話などの様々なアプリケーションシーンに適しています。
bullpoint
GLM-4.6-AWQは、智譜AIのGLM-4.6(357B MoE)を高性能AWQ量子化したモデルで、vLLM推論用に最適化されており、本番デプロイのスループットを効果的に向上させます。このモデルは4ビット量子化技術を採用しており、高精度を維持しながら顕著にVRAM使用量を削減します。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mixはzai-org/GLM-4.6ベースモデルに基づく量子化バージョンで、テキスト生成タスクで優れた性能を発揮します。このモデルはGPTQ量子化技術を通じてモデルサイズの最適化を実現し、同時に良好な性能を維持しています。
DevQuasar
このプロジェクトはzai-org/GLM-4.6の量子化バージョンを提供しており、知識をすべての人に利用してもらうことを目的としています。これはテキスト生成モデルであり、元のGLM-4.6モデルを最適化し、より高効率な推論性能を提供します。
ubergarm
ik_llama.cppブランチに基づいて最適化されたGLM-4.6の量子化バージョンで、先進的なIQ量子化技術を採用し、高品質な出力を維持しながらメモリ使用量を大幅に削減します。このシリーズにはIQ5_KからIQ1_KTまでの複数の量子化レベルが含まれ、さまざまなハードウェア環境での推論ニーズを満たします。
GLM-4.6-AWQはzai-org/GLM-4.6ベースモデルに基づく量子化バージョンで、効率的なテキスト生成能力を備えています。GLM-4.5と比較して、このモデルはコンテキストウィンドウ、エンコード性能、推論能力、エージェント機能などの面で著しい向上が見られます。
Downtown-Case
GLM 4.6は、128GBメモリ+単GPU構成向けに最適化された量子化モデルで、IQ_K量子化方式を採用し、主流のllama.cppと比較して同じサイズでより良い品質と性能を提供します。このモデルはik_llama.cppと一緒に使用する必要があり、128GBデュアルチャネルDDR5メモリ、単CCD Ryzen 7000プロセッサ+単体3090グラフィックカードの構成で、テキスト生成速度は約1秒あたり6.8トークンに達します。
unsloth
GLM-4.6は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較して、長いコンテキストウィンドウ、より優れたコーディング性能、より強力な推論能力など、多くの面で顕著な改善が見られます。このモデルは、いくつかの公開ベンチマークテストで優れた結果を収めており、国内外の主要モデルと比較しても競争力があります。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
inferencerlabs
GLM-4.6はMLXフレームワークに基づく効率的なテキスト生成モデルで、6.5bit量子化技術を採用し、高品質なテキスト生成能力を維持しながら、計算リソースの要求を大幅に削減します。このモデルは単一のM3 Ultraデバイスで実行でき、効率的なテキスト生成タスクをサポートします。
これはGLM-4.6モデルの5ビット量子化バージョンで、mlx-lmツールを使用して変換され、Apple Siliconデバイス用に最適化され、大規模言語モデルの効率的な推論能力を提供します。
GLM-4.6-4bitは、zai-org/GLM-4.6モデルをmlx-lmツールを使って変換した4ビット量子化バージョンで、Apple Siliconチップに特化して最適化されており、英語と中国語のテキスト生成タスクをサポートしています。
bartowski
これはGLM-4.6モデルのLlamacpp imatrix量子化バージョンで、llama.cpp b6647バージョンを使用して量子化されています。このモデルは複数の量子化バージョンを提供し、さまざまなハードウェア条件で動作し、異なるユーザーのニーズを満たすことができます。すべての量子化バージョンはimatrixオプションを使用し、特定のデータセットを組み合わせて最適化されています。
zai-org
GLM-4.6は智譜AIが発表した次世代のテキスト生成モデルで、GLM-4.5と比較して、文脈処理、コード化性能、推論能力などの面で著しい向上を実現し、200Kの文脈長をサポートし、より強力なエージェント能力と洗練されたライティング能力を備えています。
GLM-4.6 MCPサーバーは、企業レベルのアーキテクチャコンサルティングプロトコルブリッジサービスです。モデルコンテキストプロトコルを通じてClaude 4.5 SonnetとGLM-4.6を接続し、システム設計、拡張性パターン、技術的な意思決定のサポートを提供します。コードアーキテクチャ分析、システムアーキテクチャ設計、意思決定レビューなどの機能をサポートしています。