可灵AIはO1ビデオ大モデルを全面公開。多モーダル視覚言語統合アーキテクチャを採用し、テキスト・画像・動画の融合入力に対応。思考連鎖推論を導入し、一括で文/図からの動画生成、編集、延長が可能。....
Meta AI LabがLlama3.18BベースのCoT-Verifierを開発。TopKトランスデューサーで白箱検証を実現し、AIの連鎖的思考推論における誤りを正確に特定・修正可能に。従来手法の限界を突破。....
マイクロソフトが140億パラメータのrStar2-Agentモデルをオープンソース化。エージェント強化学習により数学推論で6710億パラメータのDeepSeek-R1を上回り、従来の思考連鎖法を置き換える自律推論・Pythonコード検証機能を実現。....
シンガポールのSapient Intelligenceが新AIアーキテクチャ「階層的推論モデル(HRM)」を発表。大規模言語モデル並みの推論能力を持ちながらデータ量とモデルサイズが小さい。人間の思考プロセスを模倣したマルチシステム協働により、従来の連鎖的思考法を上回る効率を実現。....
Deepseek-R1-14Bをベースに最適化された、ロールプレイングと思考連鎖(CoT)を備えたモデルです。長文作成や対話に適しています。
長思考連鎖を用いて神経機械翻訳を最適化する深層推論翻訳モデル。
包括的なプロンプトエンジニアリング技術リソース集
革新的なマルチモーダル連鎖思考フレームワーク。視覚推論能力を向上させます。
Alibaba
$1
入力トークン/百万
$10
出力トークン/百万
256
コンテキスト長
$2
$20
-
Moonshot
$4
$16
Bytedance
$0.8
$0.15
$1.5
$8
Tencent
32
Openai
$0.4
128
Chatglm
Deepseek
$3.5
$12
Baidu
64
$3
$9
$0.5
224
$0.2
16
squ11z1
Hypnos i1-8BはNous Hermes 3(Llama 3.1 8B)に基づく専門的な推論モデルで、複雑な論理、思考連鎖推論、数学問題の求解に特化しています。このモデルは、混合量子 - 古典機械学習の分野で独自の探求を行い、量子ノイズ注入を導入することで、モデルの創造力と推論能力を向上させています。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
bartowski
これはQwen3-VL-2B-ThinkingモデルのLlamacpp imatrix量子化バージョンで、さまざまな量子化タイプのファイルを提供し、さまざまなハードウェア環境で効率的に動作します。このモデルは20億パラメータのマルチモーダルビジュアル言語モデルで、思考連鎖推論能力を備えています。
mlx-community
これはQwen3-VL-32B-Thinkingモデルを変換した4ビット量子化バージョンで、MLXフレームワークに特化して最適化されています。このモデルは32Bパラメータ規模のマルチモーダル視覚言語モデルで、思考連鎖推論能力を備え、画像とテキストの入力を同時に処理し、高品質のテキスト応答を生成することができます。
Olmo-3-7B-Think-SFTはAllen Institute for AIが開発した7Bパラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで後続の学習が行われています。
Salesforce
GTA1はGRPO強化学習に基づいて訓練されたGUI接地モデルで、グラフィカルユーザーインターフェイスの自動操作に特化しています。長い思考連鎖の推論に依存する方法と比較して、GRPOは直接操作可能で根拠のある応答を促し、複数のベンチマークテストで卓越した接地性能を示しています。
mradermacher
PromptEnhancer-32Bは、多言語をサポートする32Bパラメータの大規模言語モデルで、テキストから画像への変換、プロンプトの強化、プロンプトの書き換え、思考連鎖などのタスクに特化しています。このバージョンでは、さまざまな量子化タイプのGGUF形式のファイルが提供され、さまざまなハードウェア環境でのデプロイと使用が容易になります。
ssweens
Kimi-VL-A3B-Thinking-2506は月の暗面が開発したマルチモーダル視覚言語モデルで、画像とテキストの統合的な理解と推論をサポートし、思考連鎖推論能力を備え、複雑な視覚言語タスクを処理できます。
lmstudio-community
Qwen3-235B-A22B-Thinking-2507モデルの4ビット量子化バージョンで、MLXフレームワークを使用してAppleチップに最適化された高性能な大規模言語モデルで、思考連鎖推論能力を備えています。
Siesher
Qwen3-1.7BをベースにしたLoRA微調整バージョンで、適応的推論と思考プログラム技術により、複雑な論理と数学タスクの推論能力を強化し、連鎖思考、飛躍的思考などの推論方式をサポートします。
Mungert
AceMath-7B-Instructは数学推理用に設計された最先端のモデルで、Qwen2.5-Math-7B-Baseをベースに開発され、思考連鎖(CoT)推論を使って英語の数学問題を解くことに長けています。
prithivMLmods
DeepSeek-R1-Llama-8B-F32-GGUF は DeepSeek-R1-Distill-Llama-8B の量子化バージョンで、強化学習による直接訓練を採用し、自己検証、内省、拡張思考連鎖生成などの能力を備えています。
stockmark
Stockmark-2-VL-100B-betaは1000億のパラメータを持つ日本語専用のビジュアル言語モデルで、思考連鎖(CoT)推論能力を備え、文書読解に使用できます。
launch
ThinkPRM-7Bは、R1-Distill-Qwen-7Bアーキテクチャに基づく生成型プロセス報酬モデルで、推論過程を段階的に検証するために特別に設計されています。明確な検証思考連鎖を生成することで、数学の問題解決やコード生成などの推論タスクの各ステップの正しさを評価し、データ効率が高く、説明可能性が強いという特徴があります。
nvidia
AceMathシリーズの最先端数学推論モデルで、思考連鎖(CoT)推論を用いて英語の数学問題を解決するのに長けています。
ThinkPRM-1.5BはR1-Distill-Qwen-1.5Bアーキテクチャに基づく生成的プロセス報酬モデルで、生成的検証思考連鎖を通じて推論プロセスを段階的に検証できます。
qihoo360
360智脳3-7B-O1.5は奇虎360がオープンソース化した長思考連鎖モデルで、360智脳3-7B-Instructをファインチューニングしており、複雑な推論タスクをサポートします。
Groq APIを利用してQwenモデルを呼び出す連鎖思考MCPサーバーで、外部の思考ツールを通じてAIが複雑なタスクを処理する能力を向上させます。
構造化された順序思考に特化したMCPサーバーで、問題の分解、推論の連鎖の追跡、および思考パターンの保存機能を提供し、メモリバンクシステムと統合されています。