MiniMax創設者・閻俊傑は、科学的アプローチでAGIを推進し、世界を変える壮大な物語を追求しないと強調。同社は「非天才」チーム戦略を採用し、交錯思考と全モーダル技術スタックで段階的に汎用AIを実現。モデルは200以上の国・地域をカバー。交錯思考技術は推論チェーンに「自己反省トークン」を挿入し、リアルタイムで論理の飛躍を修正可能で、海外主要メーカーにも採用されている。....
開発者コミュニティで話題になっているGPT-5.2のリリース。スクリーンショットではCursor IDEにそのオプションが表示されている。このモデルは単なるアップグレードではなく、全面的な再構築を経て、プログラミングや論理的思考能力の向上に特化しているとされる。
DeepSeekがV3.2標準版と深度思考版を発表。V3.2は128kコンテキストでGPT-5と互角、深度思考版はGemini3Proと同等性能でIMO2025で金メダル水準を達成。スパースアテンション技術の採用により、長文処理の効率化とメモリ使用量削減を実現し、オープンソースモデル初の100万トークン単一GPU推論を可能にした。....
NVIDIAがNeurIPS2025で発表したL4自律走行推論モデル「Alpamayo-R1」は、カメラ、LiDAR、テキスト指令を同時処理し、視覚・言語・動作の3モーダル統合アーキテクチャで人間の常識に近い運転判断を実現。....
Qwen3はQwenシリーズの大型言語モデルの最新メンバーで、複数の思考モードと多言語をサポートしています。
テスト時の大型推論モデルの思考プロセスを調整するための汎用フレームワーク。
Deepseek-R1-14Bをベースに最適化された、ロールプレイングと思考連鎖(CoT)を備えたモデルです。長文作成や対話に適しています。
Gemini 2.0 フラッシュ思考実験は、推論プロセスを可視化することで性能と説明性を向上させた、推論能力を強化したモデルです。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$4
$16
$2
$20
squ11z1
Hypnos i1-8BはNous Hermes 3(Llama 3.1 8B)に基づく専門的な推論モデルで、複雑な論理、思考連鎖推論、数学問題の求解に特化しています。このモデルは、混合量子 - 古典機械学習の分野で独自の探求を行い、量子ノイズ注入を導入することで、モデルの創造力と推論能力を向上させています。
prithivMLmods
Olmo-3-Thinkはアレン人工知能研究所が発表した完全にオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規模があります。このモデルは特別に訓練され、明確な推論過程を示すことができ、透明な段階的な推論と検証可能な中間思考痕跡をサポートし、推論、数学、コードタスクで優れた性能を発揮します。
Clemylia
Qsana-coder-baseは小型言語モデル(SLM)で、コーディング基礎(Python、疑似コード)の概念創意のために特別に設計されています。これは実行可能な生産コードを生成するのではなく、教育や迅速なプロトタイプ設計のシナリオでコーディングの論理断片を生成し、主な目標は初心者の論理思考と概念理解を刺激することです。
MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
Nanbeige
楠米色4-3B-思考-2511は楠米色シリーズの最新の強化バージョンで、高度な蒸留技術と強化学習による最適化を通じて、コンパクトな3Bパラメータ規模で強力な推論能力を実現しています。このモデルはArena-Hard-V2やBFCL-V4などのベンチマークテストで、パラメータが32B未満のモデルの中で最先端(SOTA)の成果を達成しています。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
Olmo 3はAllen Institute for AI (Ai2)によって開発された一連の言語モデルで、7Bと32Bの2種類の規格があり、InstructとThinkの2種類のバリエーションがあります。このモデルはTransformerアーキテクチャに基づいており、長い思考チェーン能力を持ち、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。
Olmo 3はAllen Institute for AIによって開発されたオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規格があり、指令(Instruct)と思考(Think)の2種類のバリエーションに分かれています。このモデルは卓越した長鎖思考能力を持ち、数学やコーディングなどの推論タスクのパフォーマンスを大幅に向上させることができます。
Olmo 3はAllen Institute for AIによって開発された全新型の言語モデルファミリーで、7Bと32Bの2種類の規模があり、指令(Instruct)と思考(Think)の2種類のバリエーションがあります。このモデルは長鎖型の思考を用いて、数学やコーディングなどの推論タスクの性能を向上させ、言語モデル科学の発展を推進することを目的としています。
Guilherme34
Qwen3-32BはQwenシリーズの最新世代の大規模言語モデルで、強力な推論、命令遵守、エージェント間の相互作用、多言語処理能力を備えています。100種類以上の言語と方言をサポートし、思考モードと非思考モードをシームレスに切り替えることができ、ユーザーに自然でスムーズな対話体験を提供します。
Olmo-3-32B-Think-DPOはAllen AIが開発した32Bパラメータの言語モデルで、直接嗜好最適化(DPO)を用いて訓練され、長鎖的な思考推論能力を備え、数学やコーディングなどの複雑な推論タスクで優れた性能を発揮します。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
ojus1
Qwen2.5はアリババが開発した次世代の大規模言語モデルで、チャットテンプレートに重要な最適化を施し、思考状態を恒久的に無効化し、多輪チャットテンプレートに関する問題を解決し、実験や研究により便利な体験を提供します。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
moonshotai
Kimi K2 Thinkingは月の暗面(Moonshot AI)が開発した最新世代のオープンソース思考モデルで、強力な深度推論能力とツール呼び出し機能を備えています。このモデルは混合専門家アーキテクチャを採用し、ネイティブINT4量子化をサポートし、256kのコンテキストウィンドウを持ち、複数のベンチマークテストで優れた性能を発揮します。
bartowski
Apollo-V0.1-4B-Thinkingは40億パラメータの大規模言語モデルで、思考過程の推論アーキテクチャを採用し、推論タスクに特化して最適化されています。このモデルは複数の量子化バージョンを提供し、さまざまなハードウェア環境で効率的に動作します。
noctrex
これは慧慧Qwen3-VL-8B思考消去モデルの量子化バージョンで、Qwen3-VL-8Bアーキテクチャに基づいて、画像テキスト変換タスクに特化して最適化および量子化処理が行われ、llama.cppツールを通じて効率的に実行できます。
MCP Thought Serverは、AIエージェントに高度な思考ツールを提供するサービスで、モデルコンテキストプロトコル(MCP)を通じて推論、計画、反復最適化能力を強化します。構造化思考、反復草稿、および統合思考などのツールを含み、SQLiteの永続化と高度な信頼度評価システムをサポートし、さまざまなニーズに合わせて環境変数を構成できます。
Groq APIを利用してQwenモデルを呼び出す連鎖思考MCPサーバーで、外部の思考ツールを通じてAIが複雑なタスクを処理する能力を向上させます。
Deepseek R1モデルの思考チェーンを利用して推論を行うMCPサービスツールで、Claude Desktopなどのクライアントで使用できます。
構造化された検索と動的な思考チェーンにより、AIモデルの推論能力を強化し、問題解決能力を向上させるMCPサーバー。
モデルコンテキストプロトコル(MCP)に基づくサーバーで、システマティックな思考、メンタルモデル、デバッグ方法を提供し、問題解決能力を強化します。さまざまな思考フレームワークとプログラミングパラダイムのツールを含んでいます。
ランダムアルゴリズムと確率的決定能力を提供するMCPサーバーです。高度な数学モデルを通じて順序思考を拡張し、AIアシスタントが局所的な思考パターンから脱却し、より良い決定計画を行えるように支援します。
このプロジェクトは、Cursorエディタの機能を強化するための複数のMCPサーバーを提供し、Git管理、検索サービス、GitHub統合、記憶保存、シリアル化思考などの機能モジュールを含んでいます。
Model Context Protocol (MCP)に基づくサーバーで、DeepSeek - R1の推論機能にアクセスでき、非推論モデルが強化された思考によってより良い応答を生成できるようにします。
MCP Thinkは「think」ツールを実装したMCPサーバーで、構造化思考空間を提供することで、Claudeなどの大規模言語モデルの複雑なタスクにおける推論能力を強化することを目的としています。