九坤投資がAI大規模モデルIQuest-Coder-V1シリーズをリリースし、強力なコード生成と理解の能力を備えています。このシリーズは7B、14B、および40Bのパラメータバージョンを提供しており、そのうち40BバージョンはSWE-Bench Verifiedランキングで優れた成績を収め、81.4%のスコアでClaude Opus-4.5やGPT-5.2などの著名なモデルを上回り、テクノロジー業界の注目を集めました。
小米は、自社開発の大規模モデル「MiMo-V2-Flash」のパブリックベータテストの無料期間を20日間延長し、2026年1月20日までに変更した。このモデルのパラメーター数は3090億で、アクティブなパラメーターは150億であり、推論やコード生成において優れた性能を発揮している。この措置はユーザーにさらに長い体験時間を提供することを目的としており、小米がAI分野における継続的な投資と自信を示すためでもある。
智譜華章が香港上場を開始、3741.95万株を発売予定、銘柄コードは「2513」。2026年1月8日に香港取引所メインボードに上場予定で、大規模モデル分野で初の上場ユニコーン企業となる。....
中国のオープンソース大規模モデルの世界的影響力が顕著に向上。2025年7月、阿里の通義千問が世界ダウンロード数首位を獲得し、中国のオープンソースモデル総ダウンロード量が初めて米国を上回った。同時に、同モデルはサードパーティプラットフォームでの呼び出し量で世界第2位となり、AI競争において「エコシステムの広さ」が新基準として注目されている。....
LLaMA - Factory公式と協力して、ワンストップの低コード大規模モデル微調整プラットフォームを提供し、100種以上のモデルをサポートします。
4096個のAMD GPU上で動作する大規模深層循環言語モデルの事前学習コードです。
大規模言語モデル向けの多機能コードサンドボックスです。
コード生成と理解を専門とする大規模言語モデル
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$4
$16
$8
$240
52
Bytedance
$1.2
$3.6
4
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
Intel
DeepMathは40億パラメータの数学推理モデルで、Qwen3 - 4B Thinkingをベースに構築され、微調整された大規模言語モデルとサンドボックス化されたPython実行器を組み合わせています。これは計算ステップに対して簡潔なPythonコード断片を生成し、エラーを大幅に減らし、出力長を短縮します。
Mungert
aquif-3.5シリーズのトップモデルで、高度な推論能力と100万トークンの大規模コンテキストウィンドウを備え、複数のベンチマークテストで卓越した性能を発揮し、AAII総合スコアが60点に達します。
unsloth
Qwen3-Coder-REAP-363B-A35Bは、REAP手法を用いてQwen3-Coder-480B-A35B-Instructを25%のエキスパート剪定を行った疎な混合エキスパートモデルです。元のモデルに近い性能を維持しながら、パラメータ規模とメモリ要件を大幅に削減し、特にリソースが制限されたコード生成とスマートコーディングのシナリオに適しています。
Qwen3-VLは通義大規模モデルシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認識と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、そして優れたインテリジェントエージェント対話能力を備えています。このモデルはハイブリッドエキスパート(MoE)アーキテクチャを採用し、推論を強化した思考版です。
mradermacher
Lamapi/next-12bは、12Bパラメータに基づく大規模言語モデルで、多言語データセットを使用して微調整され、50種類以上の言語をサポートし、効率的なテキスト生成能力を備えており、化学、コード、生物学、金融、法律などの複数の分野の自然言語処理タスクに適しています。
ExaltedSlayer
Gemma 3 27B IT QATのMLX MXFP4量子化バージョンで、Googleによって開発された軽量オープンソースのマルチモーダルモデルです。このモデルは、テキストと画像の入力を同時に処理し、テキスト出力を生成することができ、128Kの大規模コンテキストウィンドウを持ち、140種類以上の言語をサポートし、さまざまなテキスト生成と画像理解タスクに適しています。
SamuelBang
AesCoder-4Bは、コードの美学的品質の向上に特化した大規模言語モデルです。インテリジェントな報酬フィードバックメカニズムを通じて、コード生成の美学的表現を最適化し、ウェブデザインやゲーム開発などのビジュアルコーディングタスクで優れた性能を発揮します。
danielus
このモデルはcerebras/Qwen3-Coder-REAP-25B-A3BのGGUF形式に変換されたバージョンで、llama.cppツールを使用して形式変換と量子化処理を行っています。元のモデルは25Bパラメータの大規模言語モデルで、コード生成タスクに特化して最適化されています。
aisingapore
Qwen-SEA-LION-v4-32B-IT-4BITは、東南アジア言語に最適化された32Bパラメータの大規模言語モデルの4ビット量子化バージョンで、優れた性能を維持しながらメモリ要件を大幅に削減し、コンシューマーグレードのハードウェアで実行できます。
Zigeng
dParallelは大規模言語モデルに対する学習可能な並列デコード手法で、モデルの内在的な並列性を掘り起こすことで高速サンプリングを実現します。この手法はデコードステップを大幅に削減し、同時にモデルの性能を維持し、GSM8KやMBPPなどのベンチマークテストで8.5 - 10.5倍の高速化を達成します。
nvidia
Qwen3-Nemotron-32B-RLBFFはQwen/Qwen3-32Bをベースに微調整された大規模言語モデルで、強化学習フィードバック技術により、デフォルトの思考パターンでの応答生成品質を大幅に向上させています。このモデルは複数のベンチマークテストで優れた性能を発揮し、低い推論コストを維持しています。
EpistemeAI
これは最初の世代の強力なvibe-code大規模言語モデルで、構造が緩やかな「雰囲気コーディング」のプロンプトに基づいて直接自然言語とコードの補完を生成するように最適化されています。初期のモデルと比較して、提示エンジニアリングのコストが低く、潜在空間の補間がよりスムーズで、利用可能なコードを生成しやすくなっています。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
PaDT-MLLM
PaDT Pro 3BはQwen2.5VL - 3Bに基づくマルチモーダル大規模言語モデルで、デコード可能なブロックトークンの統一パラダイムを採用しており、直接テキストとビジュアル出力を生成することができ、複数のビジュアル知覚と理解タスクで先進的な性能を達成しています。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
JetBrains
Mellum-4b-dpo-allはJetBrainsが開発した、コード生成と理解に特化した40億パラメータの大規模言語モデルです。事前学習、SFT、直接嗜好最適化(DPO)の3段階のトレーニングを経て、高品質で読みやすいコードを生成でき、複数のプログラミング言語をサポートします。
inclusionAI
Ming-UniVisionは多モーダル大規模言語モデルで、初めて連続ビジュアル表現を次のトークン予測フレームワークに統合し、単一の自己回帰パラダイムの下でビジュアルと言語を統一し、離散量子化や特定モーダルのヘッドを必要としません。このモデルは連合画像理解と生成をサポートし、ビジュアル言語トレーニングでの収束速度がより速く、多輪コンテキストビジュアルタスクもサポートします。
dParallelは大規模言語モデル向けの学習可能な並列デコード方法で、モデルの内在的な並列性を掘り起こすことで高速サンプリングを実現し、性能を維持しながらデコードステップを大幅に削減でき、GSM8KやMBPPなどのベンチマークテストで8.5 - 10.5倍の加速効果を達成します。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
モデルコンテキストプロトコル(MCP)に基づくサービスで、大規模言語モデルがYouTubeの音楽を検索、ダウンロード、再生できます。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
DeepView MCP は、Gemini 大規模モデルに基づくコード分析サービスで、IDE にコードベース全体のコンテキスト理解能力を提供します。
Checkstyle MCP Serverは、大規模言語モデルとローカルのコード品質ツールを接続するミドルウェアで、Go、Java、Luaなどの言語のコードチェックとフォーマットをサポートし、プロジェクト設定管理とAI自己修正機能を提供します。
Container - MCPはコンテナベースのセキュアなツール実行プラットフォームで、大規模言語モデルにコード、コマンド、ネットワーク操作を隔離環境で実行させ、MCPプロトコルのセキュアな実装を実現します。
MCPツールは、Model Context Protocol(MCP)を実装したサーバープロジェクトで、Claude DesktopなどのLLMクライアントにファイルシステムとコマンド実行ツールを提供し、大規模言語モデルのローカルシステムとの対話能力を拡張します。
mcp-rag-serverは、Model Context Protocol (MCP)に基づくサービスで、検索強化生成(RAG)をサポートし、ドキュメントをインデックス化し、大規模言語モデルに関連するコンテキストを提供します。
HAProxy MCPサーバーは、Go言語で実装されたHAProxyモデルコンテキストプロトコルサーバーで、HAProxyのランタイムAPIとmcp-goライブラリを通じて、大規模言語モデルに標準化されたHAProxy管理インターフェースを提供し、自然言語インタラクションによるロードバランサーの管理、監視およびトラフィック分析をサポートします。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
mcp2mqttは、MCPとMQTTプロトコルを通じて自然言語でハードウェアデバイスを制御する、IoTデバイスとAI大規模モデルをつなぐ架け橋プロジェクトです。
Qwen MCPツールは、モデルコンテキストプロトコルに基づくサーバーで、Qwen CLIとAIアシスタントを統合し、大規模コンテキストウィンドウ分析、ファイル処理、サンドボックス実行、複数モデルサポートなどの機能を提供します。
大規模言語モデルにファイルシステムのコンテキストを提供するMCPサーバーで、ファイル操作、コード分析、およびスマート検索をサポートします。
モデルコンテキストプロトコル(MCP)に基づくサーバーで、コード知識マップを構築することで、大規模言語モデルにTypeScriptコードベースの深いコンテキスト理解を提供します。AST分析を使用してコードを解析し、Neo4j内に包括的なグラフ表現を構築し、意味検索とグラフ走査を通じてスマートな照会機能を提供します。
このプロジェクトでは、IBM Watsonx.aiに基づく検索強化生成(RAG)サーバーを構築し、ChromaDBを使用してベクトルインデックスを作成し、モデルコンテキストプロトコル(MCP)を通じてインターフェイスを公開します。このシステムはPDFドキュメントを処理し、ドキュメントの内容に基づいて質問に回答し、大規模言語モデルと特定分野の知識を組み合わせたスマートな質問応答機能を実現します。
サンドボックスフュージョンMCPサーバーは、大規模言語モデルにコードインタープリタ機能を提供する実装であり、複数のプログラミング言語のコード実行とJupyterノートブック操作をサポートし、stdioインタラクションを通じてクライアントと通信します。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。