清華大学などが世界初のMCPアーキテクチャに基づくオープンソースRAGフレームワーク「UltraRAG2.1」を発表。YAML設定のみでマルチモーダル検索システムの多段階推論・評価を実現し、プログラミング不要で技術ハードルを大幅に低減。RAG技術の発展を促進。....
GoogleがGemini API向けに「ファイル検索ツール」を発表。フルマネージドRAGシステムとして、非公開ファイルを直接ナレッジベース化でき、データ分割や埋め込み生成が不要。API統合による効率的な検索・生成を実現し、ファイルアップロードから索引・検索までを自動処理する。....
Metaスーパーアイ・ラボがREFRAG技術をリリースし、大規模言語モデルにおける検索強化生成タスクの推論速度が30倍以上向上しました。この画期的な成果は関連論文で発表され、AIモデルの動作方法に大きな変革をもたらしました。この研究所は今年6月にカリフォルニア州で設立され、ザッカーバーグがLlama4モデルを重視したことが背景にあるそうです。
メタはスーパーアイテルジェンスラボを設立し、初の論文『REFRAG: RAGに基づくデコードの再考』において、検索強化生成タスクにおける大規模言語モデルの推論速度を顕著に向上させる新しい方法を提案しました。その改善効果は30倍以上に達し、精度は維持されています。
SQLBot は大規模モデルと RAG を基盤としたスマートなデータ質問システムです。
完全に管理されたAIベースの検索インフラストラクチャで、RAG(Reinforced Augmentation Generation)サポート付き。
ローカルのOllamaモデルに接続し、RAGシステムの作成と管理を行うための強力なローカルドキュメントQ&Aツールです。
RagaAI Catalystは、AIエージェントの監視、評価、デバッグを行うプラットフォームであり、開発者がAIワークフローを最適化し、安全にデプロイすることを支援します。
nvidia
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
ai21-labs
$3.53
$7.99
260k
cohere
$1.8
$7.2
Tarka-AIR
Tarka-Embedding-350M-V1は3億5000万のパラメータを持つテキスト埋め込みモデルで、1024次元の密集したテキスト表現を生成することができます。このモデルは、意味的な類似性、検索、および検索強化生成(RAG)などの下流アプリケーションに対して最適化されており、複数の言語をサポートし、長いコンテキストを処理する能力を持っています。
Tarka-Embedding-150M-V1は1億5000万のパラメータを持つ埋め込みモデルで、768次元の密集したテキスト表現を生成できます。意味の類似性、検索、および検索強化生成(RAG)などのさまざまな下流アプリケーションに対して最適化されており、深いコンテキスト意味を捉えることに焦点を当て、さまざまな分野にまたがる汎用的なテキスト理解をサポートします。
mamei16
これはmirth/chonky_distilbert_base_uncased_1モデルの微調整版で、より多くのデータで訓練することでモデルの性能を向上させ、主にテキスト分塊とRAG関連タスクに使用されます。
bartowski
これはLiquidAIのLFM2-1.2B-RAGモデルのGGUF量子化バージョンで、検索強化生成(RAG)タスクに特化して最適化されています。このモデルは様々な量子化処理が施されており、bf16からQ2_Kまでの複数の量子化レベルを提供し、さまざまなハードウェア条件と性能要件に対応しています。
NVIDIA Qwen3-32B FP4モデルは、アリババのQwen3-32Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを使用し、重みと活性化関数をFP4で量子化しています。AIエージェントシステム、チャットボット、RAGシステムなどのAIアプリケーションに適しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
NVIDIA Qwen3-8B FP4モデルは、アリババのQwen3-8Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用した自己回帰型言語モデルです。このモデルはFP4量子化技術を使用し、パフォーマンスを維持しながらメモリ使用量と計算要件を大幅に削減し、AIエージェントシステム、チャットボット、RAGシステムなどのアプリケーションシナリオに適しています。
anquachdev
Vi - Qwen2 - 7B - RAGは、検索強化生成(RAG)タスク用に特別にカスタマイズされた大規模言語モデルで、Qwen2 - 7B - Instructをベトナム語データセットで微調整したもので、ベトナム語処理能力とRAGタスクの実行効率を大幅に向上させています。
MongoDB
mdbr-leaf-ir は MongoDB Research によって開発された、情報検索タスクに特化した高性能なコンパクト型テキスト埋め込みモデルで、特に RAG パイプラインの検索段階に適しています。このモデルは知識蒸留技術を採用し、非対称アーキテクチャ、MRL トランケーション、ベクトル量子化をサポートし、BEIR ベンチマークテストで優れた性能を発揮します。
cpatonn
Llama-3.3-Nemotron-Super-49B-v1.5は、Meta Llama-3.3-70B-Instructをベースに派生した大規模言語モデルで、v1バージョンの大幅なアップグレード版です。このモデルは、推論、人間の対話嗜好、およびエージェントタスク(RAGやツール呼び出しなど)で優れた性能を発揮し、128Kトークンのコンテキスト長をサポートし、精度と効率のバランスを良好に保っています。
NVIDIA Qwen3-30B-A3B FP4は、アリババのQwen3-30B-A3Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、FP4量子化技術によりモデルサイズを約3.3倍削減しながら、良好な性能を維持しています。このモデルは商用および非商用用途をサポートし、AIエージェントシステム、チャットボット、RAGシステムなどのアプリケーションシーンに適しています。
lmstudio-community
NVIDIAがリリースした40億パラメータ規模の大規模言語モデルで、128kトークンのコンテキスト長をサポートし、推論、対話、RAGなどのタスクに最適化されています
hotchpotch
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しています。
JJTsao
映画やテレビ番組の推薦システムに特化した微調整済みの文変換モデルで、RAGパイプラインにおける高品質なベクトル検索を最適化しています。
ragunath-ravi
このモデルはBLIPベースモデルを病理スライド画像向けに微調整したバージョンで、病理スライド画像の説明テキストを自動生成するために使用されます。
AITeamVN
Qwen2.5-7B-Instructをファインチューニングしたベトナム語検索拡張生成(RAG)専用大規模モデル、GRPO最適化手法でトレーニング
mirth
Chonkyはテキストを意味のあるセマンティックブロックにインテリジェントに分割できるTransformerモデルで、RAGシステムに適しています。
RaghuCourage9605
Anubis-559Mは、クリエイティブテキスト生成用に特別に設計された因果言語モデルです。より大きな基礎モデルを微調整しており、自然な対話や魅力的な散文の生成に長けており、特にロールプレイングシーンやクリエイティブライティングに適しています。
riple-saanvi-lab
120億パラメータの大規模言語モデルで、速度、効率、コンテキストの正確性に最適化されており、RAG強化技術と128kのコンテキストウィンドウをサポートしています。
MCPプロトコルに基づくローカルサーバーで、Apple Notesの意味検索とRAG機能を実現し、ClaudeなどのAIアシスタントから呼び出すことができます。
Crawl4AI RAG MCPサーバーは、ウェブクローラーとRAG機能を統合したAIエージェントサービスで、スマートURL検出、再帰的クローリング、並列処理、ベクトル検索をサポートし、AIコーディングアシスタントに強力な知識取得と検索機能を提供することを目的としています。
Qdrantベクトルデータベースを基にしたドキュメントの意味検索サービスで、URLとローカルファイルのインポートをサポートし、自然言語クエリ機能を提供します。
RagRabbitは自ホスト型のAIサイト検索およびLLM.txt生成ツールで、Vercel上にワンクリックでデプロイできます。
クイックスタートオートMCPは、ユーザーがClaude DesktopとCursorでAnthropicモデルコンテキストプロトコル(MCP)を迅速に登録するのを支援するツールです。RAGドキュメント検索、Difyワークフロー、リアルタイムウェブ検索などの機能を提供し、JSON設定ファイルをワンクリックで生成することができます。
RAG Webブラウザーアクター用に実装されたMCPサーバー。AIエージェントによるウェブ検索とコンテンツ抽出をサポートします。
Ragieモデルコンテキストプロトコルサーバー。知識ベースの検索機能を提供します。
ベクトル埋め込みに基づくコード知識管理ツールで、コードライブラリの知識を維持および照会するために使用され、ローカル保存とRAG強化をサポートします。
mcp-rag-serverは、Model Context Protocol (MCP)に基づくサービスで、検索強化生成(RAG)をサポートし、ドキュメントをインデックス化し、大規模言語モデルに関連するコンテキストを提供します。
LanceDBに基づくMCPサーバーで、LLMがプロキシRAGとハイブリッド検索を通じて直接ローカルドキュメントとやり取りできます。
このプロジェクトはFAISSベクトルデータベースをベースにしたMCPサーバーを実装し、検索強化生成(RAG)機能をサポートしており、GitHubファイルのダウンロード、ドキュメントのインデックス化、ローカルクエリ、LLMの統合などの完全なワークフローを含んでいます。
MCPサーバーに基づくRAGプロジェクト
これは、Godot RAGモデルにドキュメントサポートを提供するMCPサーバープロジェクトで、ドキュメントのダウンロード、形式変換、チャンク処理、ベクトルデータベースの構築などの機能を備えています。
Code Graph RAG MCPは、高度なモデルコンテキストプロトコルサーバーです。インテリジェントなグラフ表現と多言語コード分析機能を備え、コードの理解、関係マッピング、意味検索を行うための13種類の専用ツールを提供します。
このプロジェクトは、Anthropic NYC MCPハッカソンで開発されたローカルiMessage RAGサービスです。機能は不安定な場合があり、基本的な設定ガイドを提供していますが、長期的なメンテナンス計画はありません。
Rustをベースにした高性能なローカルRAGシステムで、MCPプロトコルを通じてClaude Desktopと統合され、PDFドキュメントのローカル処理、意味検索、プライバシー保護を実現します。
Pythonコード分析に基づくRAGシステムで、ASTを使用してコード構造を解析し、Weaviateベクトルデータベースに保存します。コードクエリ、自然言語による質問応答、および可視化機能を提供し、複数のコードライブラリの管理と依存関係分析をサポートします。
このプロジェクトでは、RAGベースのHRチャットボットを構築し、MCPサーバーを機能呼び出しの中心として、PDF文書のアップロード、解析、検索、および自然言語の質問応答機能を実現します。
このプロジェクトでは、IBM Watsonx.aiに基づく検索強化生成(RAG)サーバーを構築し、ChromaDBを使用してベクトルインデックスを作成し、モデルコンテキストプロトコル(MCP)を通じてインターフェイスを公開します。このシステムはPDFドキュメントを処理し、ドキュメントの内容に基づいて質問に回答し、大規模言語モデルと特定分野の知識を組み合わせたスマートな質問応答機能を実現します。
RAGドキュメントMCPサーバーは、ベクトル検索に基づくドキュメント処理ツールで、AIアシスタントにドキュメント検索とコンテキスト強化機能を提供します。