2025 FORCE原動力大会で、火山エンジンCEOの譚待氏は、2026年に大規模モデル市場が10倍成長すると予測。企業競争はゼロサムゲームではなく、市場拡大と業界のAI化加速を共に目指すべきと強調。2025年はAIの大規模応用が爆発する前夜であり、競争の核心は市場拡大にある。....
アマゾンCEOアンディ・ジャシーは、AWSのベテラン幹部ピーター・デサンティスを新AI組織の責任者に任命し、大規模言語モデル、自社開発チップ、量子コンピューティングの3分野を統括すると発表。デサンティスは27年在籍し、AWS上級副社長として世界のインターネットトラフィック約3分の1を支えるクラウド基盤を担当した。....
OpenAIはAI分野のリーダーだが、ハーバード教授は「大きすぎて潰せない」存在ではないと指摘。1000億ドル規模の資金調達を計画する一方、財務リスクと市場地位が注目されている。....
ベイツトゥンはvivo、レノボ、トーンなどハードウェアメーカーとAIスマホに関する協力を模索しており、大規模なモデル実行能力を改善するため、AIGCプラグイン(例:ドウバオスマホアシスタント)を事前インストールすることでAI流量エントリーポイントを獲得しようとしている。vivoの従業員は協力が確認されており、詳細な内容は現在交渉中である。協力のポイントは、ベイツトゥンが魅力的な収益分与計画を提供していることである。
EvoLinkを介した統合により、10 - 15秒の音画同期したリアルなビデオを生成し、AIビデオ制作規模を拡大します。
ワンストップの大規模なモデルAPI管理プラットフォームで、複数のAIモデルをサポートしています。
AI駆動、人気のあるYouTubeチャンネルを分析し、戦略を模倣し、コンテンツを生成し、チャンネル成長を支援します。
IELTSの執筆に関するワンストップAIツールで、採点、指導、練習、模範作文が含まれ、迅速な点数向上をサポートします。
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
Moonshot
$4
$16
128
Baidu
32
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルシリーズで、7Bと32Bの2種類の規模があり、命令型と思考型の2種類のバリエーションがあります。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、長い連鎖的な思考能力を備えており、数学やコーディングなどの推論タスクで優れた性能を発揮します。
Olmo 3はAllen Institute for AIによって開発された一連の言語モデルで、7Bと32Bの2種類の規模があり、命令式と思考式の2種類のバリエーションがあります。このモデルは長鎖思考に優れており、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。多段階訓練方式を採用しており、教師付き微調整、直接嗜好最適化、検証可能な報酬による強化学習が含まれます。
Olmo 3はAllen Institute for AIによって開発された全新型の言語モデルファミリーで、7Bと32Bの2種類の規模があり、指令(Instruct)と思考(Think)の2種類のバリエーションがあります。このモデルは長鎖型の思考を用いて、数学やコーディングなどの推論タスクの性能を向上させ、言語モデル科学の発展を推進することを目的としています。
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
unsloth
Qwen3-VL-2B-InstructはQwenシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認知と推論能力、長いコンテキストサポート、強力な空間およびビデオ動的理解能力を備えています。このモデルは2Bのパラメータ規模を採用し、命令対話をサポートし、マルチモーダルAIアプリケーションに適しています。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速、高音質のテキスト音声変換モデルです。2段階パイプラインを用いて、大規模言語モデルと高効率オーディオコーデックを組み合わせ、卓越した速度とオーディオ品質を実現します。このモデルはスペイン語をサポートし、4億のパラメータを持ち、サンプリングレートは22kHzです。
KaniTTSは、リアルタイム対話型人工知能アプリケーション向けに最適化された高速かつ高忠実度のアラビア語テキスト音声変換モデルです。2段階パイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度とオーディオ品質を実現し、対話型AI、障害者支援、研究など多くの分野の音声合成ニーズを満たすことができます。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。独自の2段階アーキテクチャにより、大規模言語モデルと効率的な音声コーデックを組み合わせ、低遅延で高品質な音声合成を実現します。リアルタイムファクターは最低0.2で、リアルタイム速度の5倍の高速合成が可能です。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
Sunbird
Sunflower-32BはSunbird AIによって開発された多言語大規模言語モデルで、ウガンダ地域の言語に特化して最適化されています。Qwen 3 - 32Bアーキテクチャに基づいて構築され、31種類のウガンダ言語と英語の翻訳およびテキスト生成タスクをサポートし、ウガンダ言語の翻訳精度で優れた結果を示しています。
Sunflower-14Bは、Sunbird AIによって開発された多言語大規模言語モデルで、ウガンダの言語に特化して設計されています。このモデルはQwen 3-14Bアーキテクチャに基づいて構築され、31種類のウガンダ語と英語の翻訳およびテキスト生成タスクをサポートし、複数の評価で優れた成績を収めています。
neuphonic
NeuTTS Airは世界初の即時音声クローン機能を備えた超リアルな端側テキスト読み上げ(TTS)言語モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイスに自然な音声、リアルタイム性能、組み込みセキュリティ、話者クローン機能をもたらします。
NeuTTS Airは、即時音声クローニング機能を備えた世界初の超リアルなデバイス端テキスト音声変換モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイス上で自然な音声生成、リアルタイム性能、話者クローニング機能を実現します。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
mradermacher
ConfTuner-MinistralはMistralアーキテクチャに基づく量子化大規模言語モデルで、信頼性の高いAIシナリオに特化して微調整され、テキスト生成と信頼度推定機能をサポートしています。このモデルは複数の量子化バージョンを提供し、異なるリソース制約環境に適しています。
HiveChatは中小チーム向けに設計されたAIチャットアプリで、複数の大規模モデルサービスプロバイダーをサポートし、グループ管理、トークン制限、サードパーティログインなどの機能を提供します。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
K8MはAI駆動の軽量級Kubernetesコンソールツールで、大規模モデルの能力を統合し、多クラスタ管理とMCPサービスをサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
Node.jsとGemini APIに基づくAI研究アシスタントツールで、Firecrawlを通じてウェブデータを収集し、Gemini大規模モデルを利用して深い言語理解とレポート生成を行い、反復的な深層研究をサポートし、MCPプロトコルと統合できます。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
mcp2mqttは、MCPとMQTTプロトコルを通じて自然言語でハードウェアデバイスを制御する、IoTデバイスとAI大規模モデルをつなぐ架け橋プロジェクトです。
Qwen MCPツールは、モデルコンテキストプロトコルに基づくサーバーで、Qwen CLIとAIアシスタントを統合し、大規模コンテキストウィンドウ分析、ファイル処理、サンドボックス実行、複数モデルサポートなどの機能を提供します。
MetaMask MCPは、大規模言語モデルがMetaMaskを通じてブロックチェーンとやり取りできるモデルコンテキストプロトコルサーバーです。秘密鍵はユーザーのウォレットに安全に保存され、AIエージェントと共有されません。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。
飞书MCPサーバーの実装で、AI大規模モデルと飞书APIのやり取り能力を提供し、主に多维表格の操作をサポートします。
Lookerctl は、LookML を大規模に管理および最適化するための包括的なコマンドラインツールです。ローカルでの高速検証、使用分析、依存関係マッピング、科学的なテスト、AI 統合などの機能を提供し、AI エージェントが使用できる MCP サーバーをサポートします。
オクタゴンベンチャーキャピタルエージェントは、AI駆動のベンチャーキャピタルエージェントを実行するMCPサーバーで、著名なベンチャーキャピタル(Fred Wilson、Peter Thielなど)の投資思考を模倣し、オクタゴンプライベートマーケットのリアルタイム取引、評価、および詳細な調査データを組み合わせて、資金調達フィードバック、デューデリジェンスシミュレーション、条項交渉などのプログラム可能な「ベンチャーキャピタルの頭脳」サービスを提供します。
このプロジェクトは、GraphistryのGPU加速グラフ可視化プラットフォームとモデル制御プロトコル(MCP)を統合し、AIアシスタントや大規模言語モデルに高度なグラフ分析機能を提供し、複数のデータフォーマットとネットワーク分析機能をサポートします。
Codex MCPツールは、IDEまたはAIアシスタントをCodex CLIに接続するオープンソースのMCPサーバーで、非対話型自動化、安全なサンドボックス編集、大規模コード分析をサポートし、進捗のストリーミング更新と構造化変更モードを提供します。
Unified MCP Tool Graphは、研究に基づくプロジェクトで、異なるMCPサーバーからのツールAPIを集約し、構造化して集中型のNeo4jグラフデータベースに格納することで、大規模言語モデル(LLMs)とエージェントAIシステムに最も関連するツールを動的に検索するためのインテリジェントなインフラストラクチャ層を提供します。
Clockify MCPサービスはAIツールと統合されたサーバーで、Clockifyの時間記録を管理するために使用されます。ユーザーは大規模言語モデルにヒントを送信することで時間エントリを記録できます。
MCP Crew AI Serverは、Pythonベースの軽量サーバーで、CrewAIワークフローの実行と管理を行い、MCPプロトコルを介した大規模言語モデルとの通信をサポートします。