11月6日、科大讯飛が「訊飛星火X1.5」大規模モデルとAI製品群を発表。国内計算プラットフォームで訓練され、効率向上、130言語対応を実現。....
科大訊飛が星火X1.5推論大モデルを発表。国産演算力基盤、MoEアーキテクチャ採用、総パラメータ293億(活性化30億)。単一昇騰サーバーで配置可能、推論効率X1比100%向上、エンドツーエンド性能は国際水準に到達。....
科大訊飛がスパークX1.5深層推論モデルを発表。国産計算プラットフォーム基盤で、効率は国際競合の93%以上を達成。MoEモデルの全工程トレーニング効率を向上し、言語理解とテキスト処理能力を強化、国内開発者の国際競争力向上を支援。....
ボルケノエンジンはドウパオ大モデル1.6-visionをリリースしました。これはこのシリーズで初めてツール呼び出し機能を持つ視覚的深層思考モデルです。多モーダルな理解と推論能力が強化され、Responses APIをサポートしています。コアの特長は、ツール呼び出しにより正確な視覚的理解を実現し、画像を思考プロセスに組み込み、位置指定、切り取り、選択などの画像操作機能をサポートすることです。
ウェブ検索、読書、推論を組み合わせた深層検索により、包括的な調査が可能。複雑な問題の反復的推論や最新情報の取得に最適です。
Huginn-0125は、35億パラメータを持つ潜在変数循環型深層モデルであり、推論とコード生成に優れています。
小型言語モデルが自己進化と深層思考を通じて数学的推論能力を習得する研究成果を示します。
智譜による深層推論モデル。数理論理とコード推論に特化
openai
$63
入力トークン/百万
$504
出力トークン/百万
400k
コンテキスト長
deepseek-ai
DeepSeek R1モデルはマイナーバージョンアップを完了し、現在のバージョンはDeepSeek-R1-0528です。最新の更新では、DeepSeek R1は計算リソースの投入を増やし、トレーニング後の段階でアルゴリズム最適化メカニズムを導入することで、深層推論と推論能力を大幅に向上させました。
TheMindExpansionNetwork
Qwen3-14B大規模言語モデルを基にした高性能GGUF変換バージョンで、創造的推論、深層夢ロジック、エージェントインタラクション、多言語指示に最適化されています
DavidAU
Llama 3.1アーキテクチャを基にした混合エキスパート(MoE)モデルで、ゲーテッドIQと多層深層推論能力を備え、128kのコンテキスト長と複数言語をサポートします。
THUDM
GLM-Z1-Rumination-32B-0414は反芻能力を備えた深層推論モデルで、320億パラメータのGLM-4-32B-0414を基に開発され、開放的な複雑な問題解決に特化しています。
facebook
MobileLLMはMetaがリソース制約のあるデバイス向けに最適化した10億パラメータ以下の言語モデルシリーズで、深層ナロー構造設計によりデバイス上での推論効率を大幅に向上させています。
LeroyDyer
Mixtralアーキテクチャに基づく多機能大規模言語モデルで、深層マインドと自己最適化能力を融合し、多言語テキスト生成と複雑な推論タスクをサポート
Search1API MCPサーバーは、Model Context Protocol (MCP)に基づくサーバーで、検索とクローリング機能を提供し、複数の検索サービスとツールをサポートします。
このプロジェクトは、Gemini Flash 1.5 APIに基づくMCPサーバーの実装で、中央ルーターによって複数のモジュール化されたAIサービス(チャット、検索、RAG、深層推論など)を調整し、インテリジェントなリクエストの配信と応答処理を実現します。
Gemini Flash 1.5 APIに基づくMCPサーバーの実装で、中央ルーターを通じて複数のモジュール化されたAIサービス(チャット、検索、RAG、深層推論など)を調整し、インテリジェントなリクエスト配信と応答統合を実現します。
Perplexity MCPサーバーは、Perplexityの専用AIモデルを利用したインテリジェントな研究アシスタントで、クエリの複雑度を自動検出し、最適なモデルにリクエストをルーティングして最良の結果を得ます。検索、推論、深層研究の3種類のツールをサポートし、さまざまな複雑度のクエリタスクに対応します。