GoogleがGemini API向けに「ファイル検索ツール」を発表。フルマネージドRAGシステムとして、非公開ファイルを直接ナレッジベース化でき、データ分割や埋め込み生成が不要。API統合による効率的な検索・生成を実現し、ファイルアップロードから索引・検索までを自動処理する。....
Metaスーパーアイ・ラボがREFRAG技術をリリースし、大規模言語モデルにおける検索強化生成タスクの推論速度が30倍以上向上しました。この画期的な成果は関連論文で発表され、AIモデルの動作方法に大きな変革をもたらしました。この研究所は今年6月にカリフォルニア州で設立され、ザッカーバーグがLlama4モデルを重視したことが背景にあるそうです。
メタはスーパーアイテルジェンスラボを設立し、初の論文『REFRAG: RAGに基づくデコードの再考』において、検索強化生成タスクにおける大規模言語モデルの推論速度を顕著に向上させる新しい方法を提案しました。その改善効果は30倍以上に達し、精度は維持されています。
Lexical Diversity-aware RAGは、言語の多様性に対応するため、知識検索を最適化し、回答精度を向上させる手法。....
SQLBot は大規模モデルと RAG を基盤としたスマートなデータ質問システムです。
完全に管理されたAIベースの検索インフラストラクチャで、RAG(Reinforced Augmentation Generation)サポート付き。
ローカルのOllamaモデルに接続し、RAGシステムの作成と管理を行うための強力なローカルドキュメントQ&Aツールです。
RagaAI Catalystは、AIエージェントの監視、評価、デバッグを行うプラットフォームであり、開発者がAIワークフローを最適化し、安全にデプロイすることを支援します。
nvidia
-
入力トークン/百万
出力トークン/百万
128k
コンテキスト長
ai21-labs
$3.53
$7.99
260k
cohere
$1.8
$7.2
mamei16
これはmirth/chonky_distilbert_base_uncased_1モデルの微調整版で、より多くのデータで訓練することでモデルの性能を向上させ、主にテキスト分塊とRAG関連タスクに使用されます。
bartowski
これはLiquidAIのLFM2-1.2B-RAGモデルのGGUF量子化バージョンで、検索強化生成(RAG)タスクに特化して最適化されています。このモデルは様々な量子化処理が施されており、bf16からQ2_Kまでの複数の量子化レベルを提供し、さまざまなハードウェア条件と性能要件に対応しています。
NVIDIA Qwen3-14B FP4モデルは、アリババのQwen3-14Bモデルの量子化バージョンで、FP4データ型を用いて最適化され、TensorRT-LLMによる効率的な推論が可能です。このモデルはNVIDIA GPU加速システム向けに設計されており、AIエージェントシステム、チャットボット、RAGシステムなどの様々なAIアプリケーションシーンに適しており、世界中での商用および非商用利用がサポートされています。
anquachdev
Vi - Qwen2 - 7B - RAGは、検索強化生成(RAG)タスク用に特別にカスタマイズされた大規模言語モデルで、Qwen2 - 7B - Instructをベトナム語データセットで微調整したもので、ベトナム語処理能力とRAGタスクの実行効率を大幅に向上させています。
MongoDB
mdbr-leaf-ir は MongoDB Research によって開発された、情報検索タスクに特化した高性能なコンパクト型テキスト埋め込みモデルで、特に RAG パイプラインの検索段階に適しています。このモデルは知識蒸留技術を採用し、非対称アーキテクチャ、MRL トランケーション、ベクトル量子化をサポートし、BEIR ベンチマークテストで優れた性能を発揮します。
cpatonn
Llama-3.3-Nemotron-Super-49B-v1.5は、Meta Llama-3.3-70B-Instructをベースに派生した大規模言語モデルで、v1バージョンの大幅なアップグレード版です。このモデルは、推論、人間の対話嗜好、およびエージェントタスク(RAGやツール呼び出しなど)で優れた性能を発揮し、128Kトークンのコンテキスト長をサポートし、精度と効率のバランスを良好に保っています。
NVIDIA Qwen3-30B-A3B FP4は、アリババのQwen3-30B-A3Bモデルの量子化バージョンで、最適化されたTransformerアーキテクチャを採用し、FP4量子化技術によりモデルサイズを約3.3倍削減しながら、良好な性能を維持しています。このモデルは商用および非商用用途をサポートし、AIエージェントシステム、チャットボット、RAGシステムなどのアプリケーションシーンに適しています。
lmstudio-community
NVIDIAがリリースした40億パラメータ規模の大規模言語モデルで、128kトークンのコンテキスト長をサポートし、推論、対話、RAGなどのタスクに最適化されています
hotchpotch
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しており、CPUやエッジデバイス上でも効率的に動作します。
これは非常にコンパクトで高速な日本語リランキングモデルで、RAGシステムの精度向上に適しています。
JJTsao
映画やテレビ番組の推薦システムに特化した微調整済みの文変換モデルで、RAGパイプラインにおける高品質なベクトル検索を最適化しています。
ragunath-ravi
このモデルはBLIPベースモデルを病理スライド画像向けに微調整したバージョンで、病理スライド画像の説明テキストを自動生成するために使用されます。
AITeamVN
Qwen2.5-7B-Instructをファインチューニングしたベトナム語検索拡張生成(RAG)専用大規模モデル、GRPO最適化手法でトレーニング
mirth
Chonkyはテキストを意味のあるセマンティックブロックにインテリジェントに分割できるTransformerモデルで、RAGシステムに適しています。
RaghuCourage9605
Anubis-559Mは、クリエイティブテキスト生成用に特別に設計された因果言語モデルです。より大きな基礎モデルを微調整しており、自然な対話や魅力的な散文の生成に長けており、特にロールプレイングシーンやクリエイティブライティングに適しています。
riple-saanvi-lab
120億パラメータの大規模言語モデルで、速度、効率、コンテキストの正確性に最適化されており、RAG強化技術と128kのコンテキストウィンドウをサポートしています。
XXsongLALA
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
Chonkyはテキストを意味のあるセマンティックブロックに分割するTransformerモデルで、RAGシステムに使用可能です。
Chonkyは、テキストを意味のある意味分塊に賢く分割できるTransformerモデルで、RAGシステムに適しています。
PleIAs
Pleias-RAG-1Bは12億パラメータの小型推論モデルで、検索拡張生成(RAG)、検索、文献要約タスク向けに設計されています。多言語RAGタスクで優れた性能を発揮し、構造化された引用生成をサポートします。
MCPプロトコルに基づくローカルサーバーで、Apple Notesの意味検索とRAG機能を実現し、ClaudeなどのAIアシスタントから呼び出すことができます。
Crawl4AI RAG MCPサーバーは、ウェブクローラーとRAG機能を統合したAIエージェントサービスで、スマートURL検出、再帰的クローリング、並列処理、ベクトル検索をサポートし、AIコーディングアシスタントに強力な知識取得と検索機能を提供することを目的としています。
Qdrantベクトルデータベースを基にしたドキュメントの意味検索サービスで、URLとローカルファイルのインポートをサポートし、自然言語クエリ機能を提供します。
RagRabbitは自ホスト型のAIサイト検索およびLLM.txt生成ツールで、Vercel上にワンクリックでデプロイできます。
クイックスタートオートMCPは、ユーザーがClaude DesktopとCursorでAnthropicモデルコンテキストプロトコル(MCP)を迅速に登録するのを支援するツールです。RAGドキュメント検索、Difyワークフロー、リアルタイムウェブ検索などの機能を提供し、JSON設定ファイルをワンクリックで生成することができます。
RAG Webブラウザーアクター用に実装されたMCPサーバー。AIエージェントによるウェブ検索とコンテンツ抽出をサポートします。
MCPサーバーに基づくRAGプロジェクト
これは、Godot RAGモデルにドキュメントサポートを提供するMCPサーバープロジェクトで、ドキュメントのダウンロード、形式変換、チャンク処理、ベクトルデータベースの構築などの機能を備えています。
mcp-rag-serverは、Model Context Protocol (MCP)に基づくサービスで、検索強化生成(RAG)をサポートし、ドキュメントをインデックス化し、大規模言語モデルに関連するコンテキストを提供します。
このプロジェクトは、Anthropic NYC MCPハッカソンで開発されたローカルiMessage RAGサービスです。機能は不安定な場合があり、基本的な設定ガイドを提供していますが、長期的なメンテナンス計画はありません。
LanceDBに基づくMCPサーバーで、LLMがプロキシRAGとハイブリッド検索を通じて直接ローカルドキュメントとやり取りできます。
このプロジェクトはFAISSベクトルデータベースをベースにしたMCPサーバーを実装し、検索強化生成(RAG)機能をサポートしており、GitHubファイルのダウンロード、ドキュメントのインデックス化、ローカルクエリ、LLMの統合などの完全なワークフローを含んでいます。
ベクトル埋め込みに基づくコード知識管理ツールで、コードライブラリの知識を維持および照会するために使用され、ローカル保存とRAG強化をサポートします。
Code Graph RAG MCPは、高度なモデルコンテキストプロトコルサーバーです。インテリジェントなグラフ表現と多言語コード分析機能を備え、コードの理解、関係マッピング、意味検索を行うための13種類の専用ツールを提供します。
Rustをベースにした高性能なローカルRAGシステムで、MCPプロトコルを通じてClaude Desktopと統合され、PDFドキュメントのローカル処理、意味検索、プライバシー保護を実現します。
Ragieモデルコンテキストプロトコルサーバー。知識ベースの検索機能を提供します。
Pythonコード分析に基づくRAGシステムで、ASTを使用してコード構造を解析し、Weaviateベクトルデータベースに保存します。コードクエリ、自然言語による質問応答、および可視化機能を提供し、複数のコードライブラリの管理と依存関係分析をサポートします。
このプロジェクトでは、RAGベースのHRチャットボットを構築し、MCPサーバーを機能呼び出しの中心として、PDF文書のアップロード、解析、検索、および自然言語の質問応答機能を実現します。
OpenAI APIの知識ベースに基づくMCPサーバーで、TypeScriptで構築され、RAG技術をサポートし、技術的な質問に回答し、様々なクライアントツールと互換性があります。
RAGドキュメントMCPサーバーは、ベクトル検索に基づくドキュメント処理ツールで、AIアシスタントにドキュメント検索とコンテキスト強化機能を提供します。