中国電信人工知能研究院が星の言語大規模モデルTeleChat3シリーズをオープンソースとして公開しました。このシリーズには1兆パラメータのMoEモデルと密な構造モデルが含まれています。このシリーズは完全に国内の万カード計算力プールに基づいてトレーニングされ、データ規模は1.5兆トークンに達し、全スタックの国内製品化を実現しました。これは、中国が超大規模AIモデルの自主制御において重要な突破を遂げたことを示しています。
DeepSeekの研究では、モデルの規模を単に拡大するのではなく、ニューラルネットワークアーキテクチャを最適化することで、大規模言語モデルの推論能力を顕著に向上させることができることを明らかにした。その「多様体制約超接続」技術は、既存のアーキテクチャを微調整することで、パラメータを無限に増やすことなくAIの発展に新しい道を開いた。
DeepMindは2026年をAI発展の転換点と予測。継続学習技術が実現し、AIが自律的に知識を吸収・改善できるようになる。NeurIPS2025で発表された「ネスティング手法」は大規模言語モデルの文脈処理能力を向上させ、継続学習の基盤を築いた。....
WitNoteは完全オフラインのAIノートツールで、プライバシーとサブスクリプション費用の懸念を解消します。WindowsとmacOSに対応し、ローカルで大規模言語モデルを使用してノートを処理でき、データ漏洩や月額料金なしで利用可能です。....
中国電信人工知能研究院が開発した言語モデルです。
Google DeepMindの旗艦的なマルチモーダルAIで、100万トークンのコンテキストを持ち、博士レベルの推論能力と高度なコーディング能力を備えています。
Kat Devはソフトウェアエンジニアリングとコーディングタスクに特化した大規模言語モデルで、AIコーディングを支援します。
AI検索可視性プラットフォームで、ブランドがChatGPT、Perplexity、Google AIなどの大規模言語モデル(LLM)におけるパフォーマンスを最適化するのを支援します。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
-
Anthropic
$105
$525
200
$0.7
$2.8
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
Baidu
128
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
Trilogix1
Fara-7Bは、コンピューターの使用シーンに特化して設計された、パラメータがわずか70億の効率的な小型言語モデルです。ウェブ操作などの高度なユーザータスクで優れた性能を発揮し、より大規模なプロキシシステムと競争することができます。
nightmedia
これは実験的な量子化大規模言語モデルで、Deckard(qx)量子化方法を採用し、埋め込み層は3ビット量子化です。このモデルはノルム保持双投影除去(NPBA)技術によって再構築され、セキュリティ制限メカニズムを削除するだけでなく、モデルの認知深度と推論能力を強化しています。
GLM-4.5-Air-REAP-82B-A12B-mxfp4-mlxは、GLM-4.5-AirモデルをREAP方法で圧縮した82Bパラメータの大規模言語モデルで、MXFP4量子化形式を採用し、Macデバイス用に最適化されており、核心タスクの性能を維持しながらメモリ使用量を大幅に削減します。
mlx-community
このモデルは、allenai/Olmo-3-7B-Instructを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に特別に最適化されています。これは70億パラメータの大規模言語モデルで、命令追従と対話タスクをサポートします。
MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
RiosWesley
ブラジル範囲ルーティングモデルは、Gemma 3 270Mをベースにした微調整されたミニマルな大規模言語モデルで、ブラジルの配達サービスシステム用に設計されており、非常に高速で軽量な意図分類器(ルーター)として機能します。このモデルはUnslothを使用してトレーニングされ、GGUF形式に変換されています。
Intel
DeepMathは40億パラメータの数学推理モデルで、Qwen3 - 4B Thinkingをベースに構築され、微調整された大規模言語モデルとサンドボックス化されたPython実行器を組み合わせています。これは計算ステップに対して簡潔なPythonコード断片を生成し、エラーを大幅に減らし、出力長を短縮します。
bartowski
これはREAP方法を用いてMiniMax-M2の専門家を均一に25%裁剪した172Bパラメータの大規模言語モデルで、llama.cppに特化して最適化された量子化処理が施されており、複数の量子化レベルをサポートし、LM Studioやllama.cppベースのプロジェクトで動作します。
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
DevQuasar
このプロジェクトでは、cerebras/MiniMax-M2-REAP-172B-A10Bモデルの量子化バージョンを提供しており、知識を大衆に利用してもらうことを目指しています。これは1720億パラメータの大規模言語モデルで、最適化と量子化処理が施されており、デプロイコストの削減と推論効率の向上を目的としています。
advy
このモデルは、meta-llama/Llama-3.1-70B-Instructを特定のデータセットで微調整した大規模言語モデルで、テキスト生成タスクに特化しており、評価セットで0.6542の損失値を達成しています。
これはp-e-w/gpt-oss-20b-hereticモデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理が行われています。このモデルは200億パラメータの大規模言語モデルで、高品質から低品質まで様々な量子化オプションを提供し、ファイルサイズは41.86GBから11.52GBまでで、さまざまなハードウェア条件に適しています。
Guilherme34
Qwen3-32BはQwenシリーズの最新世代の大規模言語モデルで、強力な推論、命令遵守、エージェント間の相互作用、多言語処理能力を備えています。100種類以上の言語と方言をサポートし、思考モードと非思考モードをシームレスに切り替えることができ、ユーザーに自然でスムーズな対話体験を提供します。
MiroThinker-v1.0-72Bは72Bパラメータの大規模言語モデルの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトはオリジナルモデルを最適化し、より効率的な推論性能を提供します。
noname0202
kotodama-1.5b-a0.3b-sftは、noname0202/kotodama-1.5b-a0.3b-ptをベースにした、監督付き微調整を行った大規模言語モデルです。このモデルはTRLフレームワークを使用して訓練され、テキスト生成タスクに特化して最適化されており、自然言語処理に関連する問題を効果的に解決できます。
TeichAI
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
DavidAU
Qwen 3をベースに微調整された12Bパラメータの大規模言語モデルで、256kの超長コンテキスト処理能力を備え、長文テキスト生成タスクに特化して最適化されています。このモデルはVLTO 8Bモデルの基礎、Brainstorm 20xの調整、NEO Imatrixデータセットの量子化技術を組み合わせ、高品質の長文テキストコンテンツを生成できます。
DarwinAnim8or
Prima-24Bは240億パラメータの大規模言語モデルで、GGUF形式を用いて量子化最適化され、ロールプレイングとクリエイティブライティングタスクに特化して最適化されています。このモデルは元のPrima-24Bモデルから変換され、Q4_K_M量子化レベルを採用しており、良好な性能を維持しながらモデルサイズとメモリ要件を大幅に削減しています。
ZygAI
ZygAIは、リトアニア語と英語のタスク用に設計された高速なローカル大規模言語モデルで、テスト段階にあります。軽量級のバイリンガルアシスタントとして、ローカルハードウェア上でリアルタイムに動作し、ユーザーに効率的で正確なバイリンガルサービスを提供します。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するツールで、関連するファイルとそのメタデータを統合することで、1つずつファイルを読み取る制限を克服します。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
大規模言語モデルにA股データを提供するMCPサービス
WireMCPは大規模言語モデル(LLM)にリアルタイムのネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを統合することでデータキャプチャ、脅威検出、ネットワーク診断を実現します。
Swiftで実装された知識グラフのメモリサーバーで、大規模言語モデルに永続的なメモリ機能を提供します。
Rails MCP Serverは、Rubyをベースに実装されたModel Context Protocolサーバーで、Railsプロジェクトが大規模言語モデルと相互作用するための標準インターフェースを提供します。
Alpaca MCPサーバーは、Alpaca取引APIのモデルコンテキストプロトコル(MCP)サービスを実装しており、大規模言語モデルが自然言語でAlpaca取引システムとやり取りできるようにします。株式/オプション取引、投資ポートフォリオ管理、リアルタイム市場データの取得をサポートしています。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
MCPツールは、Model Context Protocol(MCP)を実装したサーバープロジェクトで、Claude DesktopなどのLLMクライアントにファイルシステムとコマンド実行ツールを提供し、大規模言語モデルのローカルシステムとの対話能力を拡張します。
Container - MCPはコンテナベースのセキュアなツール実行プラットフォームで、大規模言語モデルにコード、コマンド、ネットワーク操作を隔離環境で実行させ、MCPプロトコルのセキュアな実装を実現します。
Auto Causal Inferenceは、大規模言語モデル(LLM)を利用して自動的に因果推論を行うプロジェクトです。ユーザーは介入変数と結果変数を指定するだけで、システムが自動的に変数の役割識別、因果グラフの構築、効果推定、モデル検証などの全プロセスの分析を完了します。プロジェクトは2種類のエージェントアーキテクチャ(LangGraphとMCP)を提供してこの機能を実現し、特に銀行シナリオの因果問題分析に適しています。
Azure影響レポートMCPサーバーは、大規模言語モデル(LLM)がAzureにリソースの問題を自動的に報告できるツールです。自然言語処理によってユーザーのリクエストを解析し、Azureアカウントを自動認証し、管理APIを介してリソースの影響レポートを送信します。
HALは大規模言語モデルにHTTP API機能を提供するMCPサーバーで、安全なインターフェイスを介したネットワークリクエストとOpenAPI仕様からの自動ツール生成をサポートしています。
MCP-ORToolsはGoogle OR-Toolsに基づく制約ソルバーサービスの実装で、標準化された制約モデル規範を通じて大規模言語モデルと統合し、制約充足と最適化問題の解決をサポートします。
mcp-rag-serverは、Model Context Protocol (MCP)に基づくサービスで、検索強化生成(RAG)をサポートし、ドキュメントをインデックス化し、大規模言語モデルに関連するコンテキストを提供します。