网易有道辞書2025年のヒットキーワードが発表されました。「DeepSeek」は867万回の検索数で首位を獲得し、初めて中国製AI大規模モデルから生まれた年の語彙となりました。2月にDeepSeek-R1モデルがリリースされて以降、検索の人気は急激に上昇し、その後の技術革新も検索のピークを引き起こしました。大学生と就職者層が主な検索ユーザーであり、ユーザーが単語を検索した後、大規模モデルに関連する概念をよく参照し、「単語検索→概念学習」という連鎖を形成しています。これはAI技術の普及が一般市民の認識を深めている傾向を反映しています。
GoogleはAIの普及を推進し、デザインを最適化してAI概要から対話モードへの切り替えを簡素化。Gemini 3 Proモデルの国際展開を拡大し、モバイルユーザーがワンクリックでAI対話にアクセスできる新設計で体験の滑らかさを向上。....
愛詩科技はPixVerse V5.5(国内版「拍我AI V5.5」)をリリースし、完全なアップグレードと体験開放を実現しました。このモデルは、国内で初めてマルチカット+音画同期をワンクリックで出力できるAI動画大規模モデルであり、AIにより生成される動画が単一カットの素材から完成されたストーリー性あるショートフィルムへと進化させます。独自のMVLアーキテクチャに基づき、V5.5は5〜10秒以内にスクリプトの分解、カットの調整および音効の生成を自動的に行い、動画制作の完成度と効率を顕著に向上させます。
Liquid AIは2025年7月に第2世代のLiquid Foundation Models(LFM2)を発表しました。独自の「liquid」アーキテクチャを採用し、市場で最も高速な端末ベースの基本モデルを目指しています。高い訓練および推論能力により、小規模モデルがクラウド上の大規模言語モデルと競い合えるようにしました。LFM2はまず350M、700M、および1.2Bパラメータを持つ密度的なチェックポイントバージョンとして提供されます。
AI大規模モデルによる履歴書解析で、HRの履歴書処理の難題を解決し、自動化された採用プロセスを実現します。
WearViewはAIを利用してファッションモデルを生成し、リアルなファッション画像を迅速に作成し、コストを大幅に削減します。
音声AIのASR、TTS、LLMモデルを提供し、リアルタイムアプリケーション向けにテスト?デプロイ可能です。
高品質なAIインターフェースサービスを提供し、さまざまなAIモデルをサポートします。セキュリティと安定性が確保されています。
minimax
-
入力トークン/百万
出力トークン/百万
1M
コンテキスト長
moonshotai
$4.1
$16.56
128k
google
$0.72
$2.88
智谱ai
$4.5
$22.5
openai
ai2
$6.48
anthropic
$108
$540
200k
snowflake
$1.44
mistral
$2.16
256k
nous-research
ai21-labs
01-ai
32k
32.8k
65.4k
8k
cohere
moonshot
DevQuasar
これは ai-sage/GigaChat3-702B-A36B-preview-bf16 モデルの量子化バージョンで、一般の人々に無料で知識を取得する手段を提供することを目的としています。このモデルは大型言語モデルで、テキスト生成タスクに特化しています。
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
allenai
Olmo 3は、Allen Institute for AIによって開発された次世代の言語モデルファミリーで、7Bと32Bの指令と思考のバリエーションを含んでいます。このモデルは、長鎖思考において優れた性能を発揮し、数学やコーディングなどの推論タスクの性能を大幅に向上させます。すべてのコード、チェックポイント、およびトレーニングの詳細は公開され、言語モデル科学の発展を促進します。
XiaomiMiMo
米モデルのエンボディメントモデル(MiMo-Embodied)は、強力なクロスエンボディメント視覚言語モデルであり、自動運転とエンボディメントAIタスクの両方で卓越した性能を発揮します。これは、この2つの重要な分野を結合した最初のオープンソースの視覚言語モデルであり、動的な物理環境における理解と推論能力を大幅に向上させました。
Olmo 3はAllen Institute for AIによって開発されたオープンソースの言語モデルシリーズで、7Bと32Bの2種類の規格があり、指令(Instruct)と思考(Think)の2種類のバリエーションに分かれています。このモデルは卓越した長鎖思考能力を持ち、数学やコーディングなどの推論タスクのパフォーマンスを大幅に向上させることができます。
Smith-3
これはセントシモン大学の科学技術学部の学生向けに設計された微調整AIモデルで、TecnoTimeアプリケーションに統合され、学生が学習の組織性を維持し、学術的な継続性を向上させるのを助け、構造化された通知と激励メッセージを通じて学習習慣を強化します。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速、高音質のテキスト音声変換モデルです。2段階パイプラインを用いて、大規模言語モデルと高効率オーディオコーデックを組み合わせ、卓越した速度とオーディオ品質を実現します。このモデルはスペイン語をサポートし、4億のパラメータを持ち、サンプリングレートは22kHzです。
KaniTTSは、リアルタイム対話型人工知能アプリケーション向けに最適化された高速かつ高忠実度のアラビア語テキスト音声変換モデルです。2段階パイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度とオーディオ品質を実現し、対話型AI、障害者支援、研究など多くの分野の音声合成ニーズを満たすことができます。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。独自の2段階アーキテクチャにより、大規模言語モデルと効率的な音声コーデックを組み合わせ、低遅延で高品質な音声合成を実現します。リアルタイムファクターは最低0.2で、リアルタイム速度の5倍の高速合成が可能です。
Daemontatox
Zirel-3は、GLM - 4.5 - Air - REAP - 82B - A12Bをベースにした特定の微調整モデルで、REAP(ルーティング重み付きエキスパート活性化剪定)技術を用いて圧縮された820億パラメータの混合エキスパートモデルです。高性能を維持しながら、モデルサイズを大幅に削減しています。
unsloth
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
GLM-4.6は智譜AIが開発した次世代の大規模言語モデルで、GLM-4.5と比較して、文脈処理、コーディング能力、推論性能の面で著しい向上が見られます。このモデルは200Kの文脈長をサポートし、複数の公開ベンチマークテストで優れた成績を収めており、特にコード生成、推論、エージェントタスクの分野で競争力を持っています。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。2段階のパイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度と音質を実現し、複数の言語をサポートし、エッジ/サーバーデプロイメントに適しています。
amd
Llama-3.1-8B-onnx-ryzenai-npuは、AMDがMetaのLlama-3.1-8Bモデルをベースに開発した最適化バージョンで、AMD Ryzen AI NPU向けに最適化されたデプロイが行われています。このモデルは、Quark量子化、OGAモデルビルダー、およびNPU専用の後処理技術を通じて、高品質なテキスト生成能力を維持しながら、AMDハードウェア上での推論効率を大幅に向上させています。
Sunbird
Sunflower-32BはSunbird AIによって開発された多言語大規模言語モデルで、ウガンダ地域の言語に特化して最適化されています。Qwen 3 - 32Bアーキテクチャに基づいて構築され、31種類のウガンダ言語と英語の翻訳およびテキスト生成タスクをサポートし、ウガンダ言語の翻訳精度で優れた結果を示しています。
Sunflower-14Bは、Sunbird AIによって開発された多言語大規模言語モデルで、ウガンダの言語に特化して設計されています。このモデルはQwen 3-14Bアーキテクチャに基づいて構築され、31種類のウガンダ語と英語の翻訳およびテキスト生成タスクをサポートし、複数の評価で優れた成績を収めています。
neuphonic
NeuTTS Airは世界初の即時音声クローン機能を備えた超リアルな端側テキスト読み上げ(TTS)言語モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイスに自然な音声、リアルタイム性能、組み込みセキュリティ、話者クローン機能をもたらします。
NeuTTS Airは、即時音声クローニング機能を備えた世界初の超リアルなデバイス端テキスト音声変換モデルです。0.5Bパラメータの大規模言語モデルの骨格をベースに構築され、ローカルデバイス上で自然な音声生成、リアルタイム性能、話者クローニング機能を実現します。
HiveChatは中小チーム向けに設計されたAIチャットアプリで、複数の大規模モデルサービスプロバイダーをサポートし、グループ管理、トークン制限、サードパーティログインなどの機能を提供します。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
K8MはAI駆動の軽量級Kubernetesコンソールツールで、大規模モデルの能力を統合し、多クラスタ管理とMCPサービスをサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
Notebook Intelligence (NBI) は、JupyterLab用に設計されたAIコーディングアシスタントおよび拡張可能なAIフレームワークで、GitHub Copilotや他のLLMプロバイダーのモデル(ローカルのOllamaモデルを含む)をサポートします。コード生成、自動補完、チャットインターフェイスなどの機能により生産性を大幅に向上させ、モデルコンテキストプロトコル(MCP)サービスの統合をサポートします。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
CTXはコードリポジトリと大規模言語モデル(LLM)を接続するツールで、構造化されたコンテキストファイルを自動生成することで、AI開発におけるコードコンテキストの伝達効率が低い問題を解決します。コードファイル、Gitリポジトリ、ウェブページなどの複数のソースから情報を収集することができ、MCPサーバーを通じて直接AIアシスタントにプロジェクトコンテキストを提供することができます。
mcp2mqttは、MCPとMQTTプロトコルを通じて自然言語でハードウェアデバイスを制御する、IoTデバイスとAI大規模モデルをつなぐ架け橋プロジェクトです。
Node.jsとGemini APIに基づくAI研究アシスタントツールで、Firecrawlを通じてウェブデータを収集し、Gemini大規模モデルを利用して深い言語理解とレポート生成を行い、反復的な深層研究をサポートし、MCPプロトコルと統合できます。
Qwen MCPツールは、モデルコンテキストプロトコルに基づくサーバーで、Qwen CLIとAIアシスタントを統合し、大規模コンテキストウィンドウ分析、ファイル処理、サンドボックス実行、複数モデルサポートなどの機能を提供します。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
MCP - JaCoCoは、JaCoCoのコードカバレッジレポートを大規模言語モデル(LLM)に適した形式に変換するサービスツールで、AIによる分析をより効率的に行えるようにします。
飞书MCPサーバーの実装で、AI大規模モデルと飞书APIのやり取り能力を提供し、主に多维表格の操作をサポートします。
MetaMask MCPは、大規模言語モデルがMetaMaskを通じてブロックチェーンとやり取りできるモデルコンテキストプロトコルサーバーです。秘密鍵はユーザーのウォレットに安全に保存され、AIエージェントと共有されません。
このプロジェクトは、GraphistryのGPU加速グラフ可視化プラットフォームとモデル制御プロトコル(MCP)を統合し、AIアシスタントや大規模言語モデルに高度なグラフ分析機能を提供し、複数のデータフォーマットとネットワーク分析機能をサポートします。
Spring AI MCPフレームワークに基づくExcelファイルの読み書きサービスで、大規模言語モデルとの統合をサポートし、動的な交換を実現します。
Clockify MCPサービスはAIツールと統合されたサーバーで、Clockifyの時間記録を管理するために使用されます。ユーザーは大規模言語モデルにヒントを送信することで時間エントリを記録できます。
AI駆動のチャートとプロトタイプ作成MCPサーバーで、複数の大規模言語モデルを統合し、自然言語の説明に基づいて、さまざまなスタイルの.drawio形式のチャートとHTMLインタラクティブな製品プロトタイプをインテリジェントに生成できます。
MCP Crew AI Serverは、Pythonベースの軽量サーバーで、CrewAIワークフローの実行と管理を行い、MCPプロトコルを介した大規模言語モデルとの通信をサポートします。
Unity MCPサーバーは、C#ベースのモデルコンテキストプロトコル(MCP)サービスで、Unityエディタを外部の大規模言語モデル(LLM)またはクラウドAIエージェントに接続し、リアルタイム自動化とスマートなインタラクションを実現します。