DeepMindが最新AIモデル「Gemini3 Pro」を発表。最強の推論能力を誇り、複雑なテーマを分かりやすく解説。学習支援からアイデアの具体化まで、多様な応答で理解を深める。....
非営利機関FutureHouseがAI研究システムKosmosを推出した。12時間で1500編の論文の読解、4万2千行のコード生成および引用レポート作成が可能で、人間チームの6か月分の効率に相当し、出力精度は79.4%である。このシステムは構造化された世界モデルを使用し、並列処理によって検索、分析、検証を処理しており、7つの先端的な発見を再現し成功させた。
昆仑万维が軽量マルチモーダルAI「Skywork R1V4-Lite」を発表。画像操作・ツール連携・深層推論機能を統合し、写真撮影だけで空間認識や文字拡大などの複雑作業を自動処理可能。従来モデルを超える柔軟性と効率性を実現。....
OceanBaseが2025年にオープンソースAIデータベース「seekdb」を発表。3行のコードで知識ベースとエージェントアプリを構築可能。数百億のマルチモーダルデータ検索をサポートし、ベクトル・全文・スカラー・地理データの統合検索を実現。Hugging Faceなど30以上のAIフレームワークと互換性があり、AI推論とデータ処理を統合。....
世界初の推論インテリジェンスと16ビットHDR出力を備えたAIビデオモデルで、効率的かつ専門的な創作が可能です。
世界初の推論AI動画モデルであるRay3は、テキストプロンプトから4K HDR動画を作成できます。
Grok 4はxAIが開発した画期的なAIモデルで、高度な推論能力、マルチモーダル機能、専門的なコーディング特性を備えています。
小米初の推論大規模モデルMiMoがオープンソース化され、推論タスクに特化して設計され、卓越した性能を誇ります。
xai
$21.6
入力トークン/百万
$108
出力トークン/百万
256k
コンテキスト長
openai
$144
$576
200k
google
$9
$72
1M
$14.4
$57.6
$7.92
$31.68
anthropic
$540
chatglm
$0.43
$1.01
131.1k
minimax
-
$432
nvidia
128k
$2.16
$18
deepseek
$4.03
$15.98
$3.96
$15.77
alibaba
$0.72
tencent
$0.8
$2
32k
dogeater1612
これはGoogle Gemma 2 9Bモデルを微調整したオランダ語患者シミュレーションモデルで、医療教育シーン向けに特別に設計されています。モデルは常に固定のJSON構造で応答し、手術を終えて回復中の患者「マリア」をシミュレートし、看護専門の学生が安全な環境でコミュニケーションと臨床推論能力を鍛えることをサポートします。
DevQuasar
このプロジェクトでは、cerebras/MiniMax-M2-REAP-172B-A10Bモデルの量子化バージョンを提供しており、知識を大衆に利用してもらうことを目指しています。これは1720億パラメータの大規模言語モデルで、最適化と量子化処理が施されており、デプロイコストの削減と推論効率の向上を目的としています。
Guilherme34
Qwen3-32BはQwenシリーズの最新世代の大規模言語モデルで、強力な推論、命令遵守、エージェント間の相互作用、多言語処理能力を備えています。100種類以上の言語と方言をサポートし、思考モードと非思考モードをシームレスに切り替えることができ、ユーザーに自然でスムーズな対話体験を提供します。
TeichAI
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
magiccodingman
これは実験的な混合量子化モデルで、MXFP4_MOE混合重み技術を採用し、Q8に近い精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現します。モデルはMXFP4と高精度の埋め込み/出力重みの組み合わせを探索し、密集モデルで精度がほぼ損失しない最適化効果を達成しました。
noctrex
Jan-v2-VLは、80億のパラメータを持つ視覚言語モデルで、実際のソフトウェア環境(ブラウザやデスクトップアプリなど)で長時間の多段階タスクを実行するために設計されています。このモデルは、言語推論と視覚認知を組み合わせ、複雑な指示に従い、中間状態を維持し、軽微な実行エラーから回復することができます。
Mungert
aquif-3.5シリーズのトップモデルで、高度な推論能力と100万トークンの大規模コンテキストウィンドウを備え、複数のベンチマークテストで卓越した性能を発揮し、AAII総合スコアが60点に達します。
inferencerlabs
MLXライブラリに基づいて実装されたテキスト生成モデルで、複数の量子化方式による推論をサポートし、分散計算能力を備え、Appleのハードウェア環境で効率的に動作します。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
DavidAU
これは、Qwen3-VL-8B-Thinkingモデルをベースにした強化版のマルチモーダルビジュアル言語モデルです。Brainstorm 20x技術を用いて12Bパラメータに拡張され、NEO Imatrixで強化されたGGUF量子化が適用されています。このモデルは、画像理解、テキスト生成、マルチモーダル推論の能力が強く、ビジュアル感知、テキスト品質、クリエイティブなシーンでの性能が著しく向上しています。
geoffmunn
これはQwen/Qwen3-Coder-30B-A3B-Instruct言語モデルのGGUF量子化バージョンで、コード生成とプログラミングタスクに特化して最適化されており、FP32精度で変換され、ローカル推論デプロイに適しています。
Aquif-3.5-Max-42B-A3Bは420億パラメータの大規模言語モデルで、MXFP4_MOE量子化処理を行っており、高品質なテキスト生成能力を維持しながら推論効率を最適化しています。このモデルは先進的な混合専家アーキテクチャに基づいており、様々な自然言語処理タスクに適用できます。
moonshotai
Kimi K2 Thinkingは月の暗面(Moonshot AI)が開発した最新世代のオープンソース思考モデルで、強力な深度推論能力とツール呼び出し機能を備えています。このモデルは混合専門家アーキテクチャを採用し、ネイティブINT4量子化をサポートし、256kのコンテキストウィンドウを持ち、複数のベンチマークテストで優れた性能を発揮します。
bartowski
Apollo-V0.1-4B-Thinkingは40億パラメータの大規模言語モデルで、思考過程の推論アーキテクチャを採用し、推論タスクに特化して最適化されています。このモデルは複数の量子化バージョンを提供し、さまざまなハードウェア環境で効率的に動作します。
これはQwen3-VL-30Bに基づく量子化バージョンのモデルで、画像テキストからテキストへの変換タスクに特化しています。このモデルは量子化技術を通じて元のモデルを最適化し、より効率的な推論ソリューションを提供します。
unsloth
Qwen3-VLは通義シリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル感知と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、そして優れたインテリジェントエージェント対話能力を備えています。
慧慧Qwen3-VL-4B思考消除モデルの量子化バージョンで、Qwen3-VL-4Bモデルをベースに最適化されており、思考チェーン推論プロセスを排除するように特別に設計されています。最新のllama.cppと組み合わせて使用でき、効率的な画像テキストからテキストへの処理能力を提供します。
Qwen3-VL-32B-ThinkingはQwenシリーズで最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル感知と推論能力、長文脈処理、空間および動画の動的理解能力、そして優れたエージェント対話能力を備えています。
Qwen3-VL-8B-Thinkingは通義千問シリーズで最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認知と推論能力、長いコンテキストサポート、強力な空間とビデオ動的理解能力、そして優れたエージェント対話能力を備えています。
Qwen3-VLは通義シリーズで最も強力なビジュアル言語モデルで、テキスト理解と生成、ビジュアル認知と推論、コンテキスト長、空間およびビデオの動的理解、エージェントインタラクション能力などの面で全面的にアップグレードされています。このモデルは密集アーキテクチャとハイブリッドエキスパートアーキテクチャを提供し、エッジデバイスからクラウドまでの柔軟なデプロイをサポートします。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、クエリの複雑度を自動的に分析し、最適なモデルを選択してリクエストを処理するインテリジェントな研究アシスタントです。検索、推論、深掘り研究の3種類のツールをサポートしています。
Perplexity MCP Serverは、PerplexityのAIモデルを利用して、自動クエリ複雑度検出と最適なモデルルーティング機能を提供するインテリジェントな研究アシスタントで、検索、推論、深度研究の3種類のツールをサポートしています。
MCP-Logicは、MCPプロトコルに基づく論理推論サーバーで、AIシステムに自動定理証明とモデル検証機能を提供します。
Auto Causal Inferenceは、大規模言語モデル(LLM)を利用して自動的に因果推論を行うプロジェクトです。ユーザーは介入変数と結果変数を指定するだけで、システムが自動的に変数の役割識別、因果グラフの構築、効果推定、モデル検証などの全プロセスの分析を完了します。プロジェクトは2種類のエージェントアーキテクチャ(LangGraphとMCP)を提供してこの機能を実現し、特に銀行シナリオの因果問題分析に適しています。
MindBridgeはAIモデルルーターサーバーで、複数のLLMプロバイダーをサポートし、スマートなモデルスケジューリングと協調を実現し、複雑な推論タスクや多モデルワークフローに適しています。
MCP論理ソルバーは、大型言語モデルと形式化定理証明能力を組み合わせた強力な推論システムで、自然言語と一階論理入力をサポートし、Prover9/Mace4を通じて自動検証を行い、構造化推論と説明を提供します。
ローカルの大規模言語モデルとMCPサーバーを接続するTypeScriptブリッジプロジェクトで、Webインターフェイスを通じてオープンソースモデルがClaudeのようなツール機能を使用できるようにし、ファイルシステム、ウェブ検索、複雑な推論などの機能をサポートします。
MCP Thought Serverは、AIエージェントに高度な思考ツールを提供するサービスで、モデルコンテキストプロトコル(MCP)を通じて推論、計画、反復最適化能力を強化します。構造化思考、反復草稿、および統合思考などのツールを含み、SQLiteの永続化と高度な信頼度評価システムをサポートし、さまざまなニーズに合わせて環境変数を構成できます。
Gemini APIに基づく高度な推論と反省ツールで、多モデルの統合とカスタム設定をサポートします。
Deepseek R1モデルの思考チェーンを利用して推論を行うMCPサービスツールで、Claude Desktopなどのクライアントで使用できます。
Deepseek R1のMCPサーバー実装で、Node.js環境をサポートし、強力な言語モデル推論サービスを提供します。
GemForgeはGoogle Gemini AIとMCPエコシステムを接続する企業向けツールで、リアルタイムウェブアクセス、高度な推論、コード分析、多ファイル処理などの機能を提供し、60種類以上のファイル形式をサポートし、スマートなモデル選択と強力なエラー処理メカニズムを備えています。
構造化された検索と動的な思考チェーンにより、AIモデルの推論能力を強化し、問題解決能力を向上させるMCPサーバー。
mcp-scaffoldは、モデルコンテキストプロトコル(MCP)サーバーを検証するための開発サンドボックスで、ローカルLLM(LLaMA 7Bなど)とクラウド推論をサポートし、チャットインターフェイスと参照アーキテクチャを含んでいます。
量子場計算モデルに基づくClaudeマルチインスタンス協調推論サーバー。場の一貫性最適化により、強化されたAI推論能力を実現します。
ローカルで動作するインテリジェントエージェントシステムで、推論モデルとツール呼び出しモデルを組み合わせています。
Replicate APIをベースにしたFastMCPサーバーの実装で、リソース化されたAIモデルの推論アクセスを提供し、特に画像生成機能に優れています。
GemForgeは、GoogleのGemini AIをMCPエコシステムに接続するエンタープライズレベルのツールで、リアルタイムのWebアクセス、高度な推論、コード分析、および多ファイル処理などの機能を提供し、60以上のファイル形式をサポートし、スマートなモデル選択と強力なエラー処理メカニズムを備えています。
Deepseek R1のMCPサーバー実装で、Claude Desktopとの統合をサポートし、強力な言語モデル推論サービスを提供します。
Groq MCPサーバーはModel Context Protocol(MCP)を通じて高速なモデル推論を提供するサービスで、テキスト生成、音声変換、画像分析、バッチ処理などのさまざまな機能をサポートします。