LMArenaによる最新のAIプログラミングモデルランキングによると、AnthropicのClaude、OpenAIのGPT-5および智譜GLM-4.6が世界でトップに並んでいます。これらのプログラミングに特化したモデルは、コードの作成・デバッグ・最適化の効率を著しく向上させ、ソフトウェア開発を促進しています。
ズーピーはGLM-4.6モデルを発表し、ハルビンジの国内チップを採用し、FP8+Int4の混合量子化配置を初めて実現しました。この技術的突破はモデルの精度を維持しながら推論コストを大幅に削減し、国内チップが大規模モデルのローカル実行をサポートする新しい道を開きました。
智谱AIが新モデルGLM-4.6をリリースし、プログラミング能力でClaude Sonnet4に匹敵。国内最強のコード生成モデルとなり、寒武紀チップへの展開にも成功。....
智譜がClaude Code専用の月額20元プランを提供。GLM-4.5及びGLM-4.5-Airモデル対応。bigmodel.cnで購入可能。....
様々な自然言語処理タスクに対応した強力な言語モデルです。
日本語と英語の音声対話を行うエンドツーエンドモデル
国際的に最先端の言語理解と長文処理を可能とする大規模言語モデルです。
オープンソースのマルチモーダル事前学習モデルで、中国語と英語の双方向対話機能を備えています。
Chatglm
-
入力トークン/百万
出力トークン/百万
128
コンテキスト長
$2
$8
$16
8
$100
1k
bartowski
これはArliAIのGLM-4.5-Air-DerestrictedモデルのGGUF量子化バージョンで、llama.cppとimatrix技術を使用して最適化量子化処理が行われ、複数の量子化レベルを選択でき、さまざまなハードウェア構成とパフォーマンス要件に対応しています。
nightmedia
これは実験的な量子化大規模言語モデルで、Deckard(qx)量子化方法を採用し、埋め込み層は3ビット量子化です。このモデルはノルム保持双投影除去(NPBA)技術によって再構築され、セキュリティ制限メカニズムを削除するだけでなく、モデルの認知深度と推論能力を強化しています。
GLM-4.5-Air-REAP-82B-A12B-mxfp4-mlxは、GLM-4.5-AirモデルをREAP方法で圧縮した82Bパラメータの大規模言語モデルで、MXFP4量子化形式を採用し、Macデバイス用に最適化されており、核心タスクの性能を維持しながらメモリ使用量を大幅に削減します。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8は、GLM-4.5-Iceblink-v2-106B-A12Bモデルをベースに、最先端の混合エキスパート量子化方法を用いてFP8量子化したバージョンです。このモデルは、ハードウェアFP8をサポートするAda、Hopper、またはBlackwellシリーズのGPUに特化して最適化されており、高品質な出力を維持しながら推論効率を大幅に向上させます。
cyankiwi
GLM-4.6 AWQ - INT4はGLM-4.6モデルの4ビット量子化バージョンで、AWQ量子化方法を採用し、モデルの性能を維持しながら、記憶と計算リソースの需要を大幅に削減します。このモデルは200Kのコンテキスト長をサポートし、コーディング、推論、エージェントタスクにおいてGLM-4.5よりも著しく向上しています。
Wwayu
これはGLM-4.6アーキテクチャに基づく混合専門家モデルで、REAP方法を使用して専門家を40%均一に剪定し、パラメータ数は218Bで、MLX形式の3ビット量子化バージョンに変換され、Appleチップデバイスでの高効率実行に適しています。
noctrex
これはGLM-4.5-Air-REAP-82B-A12BモデルのMXFP4_MOE量子化バージョンで、テキスト生成タスクに特化して最適化されています。このモデルはcerebrasのGLM-4.5-Air-REAP-82B-A12B基礎モデルに基づいており、MXFP4ハイブリッドエキスパート量子化技術によって実現され、性能を維持しながらモデルサイズと推論コストを大幅に削減しています。
gghfez
これはGLM-4.6-REAP-266B-A32BモデルのQ4_K_M gguf量子化バージョンで、transformersライブラリに基づいて構築され、テキスト生成能力を持っています。このモデルはREAP(ルーティング重み付き専門家活性化剪定)方法を使用しており、冗長な専門家を選択的に削除すると同時に、残りの専門家に対するルーターの独立した制御を維持することができます。
これはGLM-4.6-REAP-266B-A32BモデルのQ2_K_M gguf量子化バージョンで、REAP(ルーターの重み付き専門家活性化枝刈り)方法に基づいて作成され、ルーターが残りの専門家を独立して制御したまま、冗長な専門家を選択的に削除し、効率的なテキスト生成を実現します。
manasmisra
このモデルは、GLM-4.5-AirをベースにREAP方法を用いて25%均一に枝刈りを行った専門家混合モデルで、MLX形式の4ビット量子化バージョンに変換されており、Appleチップデバイスでの効率的な推論に適しています。
GLM-4.5-Airモデルをベースに、REAP方法を用いて専門家の25%を枝刈りした最適化バージョンで、MLX形式に変換されてApple Siliconデバイスで効率的に動作します。
cerebras
GLM-4.5-Air-REAP-82B-A12BはGLM-4.5-Airの効率的な圧縮バージョンで、REAP剪定技術を通じてパラメータ規模を106Bから82Bに圧縮し、メモリ要件を25%削減しながら、ほぼ損失のない性能を維持しています。
このプロジェクトはGLM-4.6モデルにクリエイティブライティング制御ベクトルを提供し、制御ベクトル技術を通じてモデルの特定の次元での性能を調整します。例えば、誠実さとマキアヴェリズム傾向、コミュニケーションスタイルなどです。
mlx-community
これはGLM-4.6モデルを変換したMLX形式のバージョンで、8ビット量子化技術を採用し、グループサイズは32で、Appleチップ用に最適化され、効率的なテキスト生成機能を提供します。
anikifoss
GLM-4.6の高品質量子化バージョンで、先進的な量子化技術を用いてimatrixを使用せずに実現され、良好なモデル性能と互換性を維持し、対話などの様々なアプリケーションシーンに適しています。
bullpoint
GLM-4.6-AWQは、智譜AIのGLM-4.6(357B MoE)を高性能AWQ量子化したモデルで、vLLM推論用に最適化されており、本番デプロイのスループットを効果的に向上させます。このモデルは4ビット量子化技術を採用しており、高精度を維持しながら顕著にVRAM使用量を削減します。
QuantTrio
GLM-4.6-GPTQ-Int4-Int8Mixはzai-org/GLM-4.6ベースモデルに基づく量子化バージョンで、テキスト生成タスクで優れた性能を発揮します。このモデルはGPTQ量子化技術を通じてモデルサイズの最適化を実現し、同時に良好な性能を維持しています。
DevQuasar
このプロジェクトはzai-org/GLM-4.6の量子化バージョンを提供しており、知識をすべての人に利用してもらうことを目的としています。これはテキスト生成モデルであり、元のGLM-4.6モデルを最適化し、より高効率な推論性能を提供します。
ubergarm
ik_llama.cppブランチに基づいて最適化されたGLM-4.6の量子化バージョンで、先進的なIQ量子化技術を採用し、高品質な出力を維持しながらメモリ使用量を大幅に削減します。このシリーズにはIQ5_KからIQ1_KTまでの複数の量子化レベルが含まれ、さまざまなハードウェア環境での推論ニーズを満たします。
GLM-4.6-AWQはzai-org/GLM-4.6ベースモデルに基づく量子化バージョンで、効率的なテキスト生成能力を備えています。GLM-4.5と比較して、このモデルはコンテキストウィンドウ、エンコード性能、推論能力、エージェント機能などの面で著しい向上が見られます。
GLM-4.6 MCPサーバーは、企業レベルのアーキテクチャコンサルティングプロトコルブリッジサービスです。モデルコンテキストプロトコルを通じてClaude 4.5 SonnetとGLM-4.6を接続し、システム設計、拡張性パターン、技術的な意思決定のサポートを提供します。コードアーキテクチャ分析、システムアーキテクチャ設計、意思決定レビューなどの機能をサポートしています。
GLM-4.5Vマルチモーダルサーバー、画像処理、ビジュアルクエリ、およびファイル処理機能を提供します