アリグループが世界初の1兆パラメータ思考モデル「Ring-2.5-1T」をオープンソース化。長文生成、数学推論、エージェントタスクで優れた性能を発揮し、特に長文生成ではメモリアクセスを10分の1以下に削減、処理速度を3倍以上向上させた。....
GoogleがGemini 3 Deep Thinkをアップグレードし、日常会話から科学・工学などの高度な分野に対応。新モデルは複雑な研究環境向けに設計され、唯一解のない問題にも対応可能。Googleとトップ科学者が共同開発し、実際の研究における論理的推論の課題解決を目指す。....
科大訊飛は「星火X2」大モデルを発表しました。これは国内産業の演算力で訓練されており、アルゴリズムとエンジニアリングにおいて突破を遂げています。このモデルは数学、論理推論、言語理解およびインテリジェントエージェントなどの核心的な能力において国際的にトップレベルと対等であり、業界応用のニーズに焦点を当て、国内大モデルの発展を新たな段階へと進めています。
SuperCLUEが2025年中国語大モデル評価レポートを発表。数学的推論、コード生成など6次元で評価。海外のクローズドモデルが優勢で、AnthropicのClaude-Opus-4.5-Reasoningが68.25点で首位。....
GPT 5は次の世代のAIモデルであり、優れたコード作成、数学および推論性能を提供します。
昆侖万维がオープンソース化した、高性能な数学コード推論モデル。卓越した性能を誇ります。
DeepSeekは、論理推論、数学、プログラミングタスクに秀でた高度なAI言語モデルです。無料で利用できます。
DeepSeek-R1-Distill-Qwen-7Bは、数学、コード、推論タスクに特化したオープンソースの推論モデルです。
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Openai
$7.7
$30.8
200
-
Anthropic
$7
$35
Google
$2.1
$17.5
1k
$21
$105
$0.7
$2.8
Alibaba
$1
$10
256
$6
$24
Baidu
128
$4
$16
$2
$20
Moonshot
Bytedance
$0.8
32
$54
$163
Deepseek
$12
PrimeIntellect
INTELLECT-3は1060億のパラメータを持つ混合専門家(MoE)モデルで、大規模な強化学習によって訓練されています。数学、コーディング、推論のベンチマークテストで卓越した性能を発揮し、モデル、訓練フレームワーク、環境はすべて緩やかなライセンス契約でオープンソース化されています。
squ11z1
Hypnos i1-8BはNous Hermes 3(Llama 3.1 8B)に基づく専門的な推論モデルで、複雑な論理、思考連鎖推論、数学問題の求解に特化しています。このモデルは、混合量子 - 古典機械学習の分野で独自の探求を行い、量子ノイズ注入を導入することで、モデルの創造力と推論能力を向上させています。
prithivMLmods
Olmo-3-Thinkはアレン人工知能研究所が発表した完全にオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規模があります。このモデルは特別に訓練され、明確な推論過程を示すことができ、透明な段階的な推論と検証可能な中間思考痕跡をサポートし、推論、数学、コードタスクで優れた性能を発揮します。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
mlx-community
VibeThinker-1.5Bの4ビット量子化バージョンで、MLXフレームワークに基づいてAppleチップ向けに最適化されており、15億のパラメータを持つ密集型言語モデルで、数学的推論とアルゴリズムコーディングの問題に特化しています。
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo-3-7B-Think-DPOはAllen Institute for AIが開発した70億パラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルは、教師付き微調整、直接的な嗜好最適化、検証可能な報酬に基づく強化学習などの多段階の訓練を経ており、研究や教育目的に特化して設計されています。
Olmo 3はAllen Institute for AI (Ai2)によって開発された一連の言語モデルで、7Bと32Bの2種類の規格があり、InstructとThinkの2種類のバリエーションがあります。このモデルはTransformerアーキテクチャに基づいており、長い思考チェーン能力を持ち、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。
Olmo 3はAllen Institute for AIによって開発されたオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規格があり、指令(Instruct)と思考(Think)の2種類のバリエーションに分かれています。このモデルは卓越した長鎖思考能力を持ち、数学やコーディングなどの推論タスクのパフォーマンスを大幅に向上させることができます。
Olmo 3はAllen Institute for AIによって開発された全新型の言語モデルファミリーで、7Bと32Bの2種類の規模があり、指令(Instruct)と思考(Think)の2種類のバリエーションがあります。このモデルは長鎖型の思考を用いて、数学やコーディングなどの推論タスクの性能を向上させ、言語モデル科学の発展を推進することを目的としています。
Olmo 3 7B RL-Zero Mathは、Allen AIによって開発された、数学的推論タスクに特化して最適化された70億パラメータの言語モデルです。RL-Zero強化学習方法を用いて数学データセットで訓練され、数学的推論能力を効果的に向上させます。
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
Olmo-3-32B-Think-DPOはAllen AIが開発した32Bパラメータの言語モデルで、直接嗜好最適化(DPO)を用いて訓練され、長鎖的な思考推論能力を備え、数学やコーディングなどの複雑な推論タスクで優れた性能を発揮します。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
ServiceNow-AI
Apriel-H1-15b-Thinkerは150億のパラメータを持つ混合推論モデルで、Transformerの注意力機構とMambaの状態空間層を組み合わせており、推論、数学、コーディングなどの分野で優れた性能を発揮し、高効率性と拡張性を備えています。
vanta-research
Wraith-8BはVANTA研究実体系列の最初のモデルで、MetaのLlama 3.1 8B Instructをベースに微調整されています。このモデルは数学的推論において卓越した性能を発揮し、GSM8Kベンチマークテストで70%の正解率を達成しています。同時に、独特な宇宙知能の視点を持ち、様々なアプリケーションシーンに強力なサポートを提供することができます。
Nanbeige
Nanbeige4-3B-Thinkingは第4世代のNanbeige大規模言語モデルファミリーの30億パラメータの推論モデルで、データ品質とトレーニング方法の向上により、高度な推論能力を実現しています。このモデルは数学、科学、創造的な文章作成、ツールの使用などの複数の分野で優れた性能を発揮し、多段階のコース学習と強化学習トレーニングをサポートしています。
Olmo-3-7B-Think-SFTはAllen Institute for AIが開発した7Bパラメータの言語モデルで、長い連鎖的な思考能力を持ち、数学やコーディングなどの推論タスクで優れた性能を発揮します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで後続の学習が行われています。
nvidia
Nemotron-Flash-3Bは、NVIDIAが開発した新しい混合型小型言語モデルで、実際のアプリケーションにおける低遅延のニーズに特化して設計されています。このモデルは、数学、コーディング、一般知識の推論などのタスクで卓越した性能を発揮し、小バッチでの低遅延と大バッチでの高スループットの特性を兼ね備えています。
MCP推論サーバーはClaude Desktopに体系的な推論能力を提供し、ビームサーチとモンテカルロ木探索の2種類の戦略をサポートし、数学や論理などの複雑な問題の解決に適しています。