清华大学等机构联合发布全球首个基于MCP架构的开源RAG框架UltraRAG2.1,通过YAML配置即可实现多模态智能检索系统的多阶段推理与评估,无需编程,显著降低技术门槛,推动检索增强生成技术发展。
Meta超级智能实验室推出REFRAG技术,使大型语言模型在检索增强生成任务中的推理速度提升超过30倍。这项突破性成果发表于相关论文,深刻变革AI模型运作方式。该实验室今年6月在加州成立,源于扎克伯格对Llama4模型的重视。
Meta成立超级智能实验室,其首篇论文《REFRAG:Rethinking RAG based Decoding》提出新方法,显著提升大语言模型在检索增强生成任务中的推理速度,提升幅度达30倍以上,同时保持准确性不变。
检索增强生成(RAG)技术通过检索知识库信息提升大语言模型回答准确性,但处理语言多样性时存在不足。为此,Lexical Diversity-aware RAG 方法被提出,旨在优化模型对多样化表达的理解,增强生成答案的可靠性。
ViDoRAG 是一个结合视觉文档检索增强生成的动态迭代推理代理框架。
SkyPilot RAG 是一个基于 SkyPilot 的检索增强生成系统,用于处理大规模法律文档搜索和分析。
用于多模态上下文中的检索增强生成的基准测试代码库。
一个用于构建Retrieval-Augmented Generation (RAG)应用的开源项目。
cohere
$1.8
输入tokens/百万
$7.2
输出tokens/百万
128k
上下文长度
-
Tarka-AIR
Tarka-Embedding-350M-V1是一个拥有3.5亿参数的文本嵌入模型,能够生成1024维的密集文本表示。该模型针对语义相似性、搜索和检索增强生成(RAG)等下游应用进行了优化,支持多种语言并具有长上下文处理能力。
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
bartowski
这是LiquidAI的LFM2-1.2B-RAG模型的GGUF量化版本,专门为检索增强生成(RAG)任务优化。该模型经过多种量化处理,提供从bf16到Q2_K等多种量化级别,适用于不同硬件条件和性能需求。
stepfun-ai
Step-Audio 2 是一款端到端的多模态大语言模型,专为满足行业级音频理解和语音对话需求而设计。具备先进的语音和音频理解能力、智能语音对话功能、工具调用和多模态检索增强生成能力,在多个音频理解和对话基准测试中取得了领先的性能。
anquachdev
Vi-Qwen2-7B-RAG 是一个专为检索增强生成(RAG)任务定制的大型语言模型,基于 Qwen2-7B-Instruct 在越南语数据集上微调而来,显著提升了越南语处理能力和 RAG 任务的执行效率。
AITeamVN
基于Qwen2.5-7B-Instruct微调的越南语检索增强生成(RAG)专用大模型,采用GRPO优化方法训练
XXsongLALA
Qwen-2.5-7B-base-RAG-RL 是一个基于未知数据集从头开始训练的7B参数规模的大语言模型,结合了检索增强生成(RAG)和强化学习(RL)技术。
THU-KEG
ReaRAG-9B是基于glm-4-9b训练的增强模型,具备生成知识引导推理链的能力,支持迭代式检索增强生成。
PleIAs
Pleias-RAG-1B是一款12亿参数的小型推理模型,专为检索增强生成(RAG)、搜索和文献摘要任务设计。在多语言RAG任务中表现优异,支持结构化引证生成。
Pleias-RAG-350M是一款3.5亿参数的小型推理模型,专为检索增强生成(RAG)、搜索和来源摘要任务而训练。
Surromind
基于Qwen2.5-14B微调的韩语大语言模型,专注于RAG(检索增强生成)任务,能够生成包含来源引用的结构化回答。
TheFinAI
首个专为金融时间序列预测设计的检索器,基于检索增强生成(RAG)框架
FinSeer StockLLM 是一个开源的10亿参数大语言模型,专为金融时间序列预测设计,采用检索增强生成(RAG)框架。
silma-ai
SILMA Kashif 2B Instruct v1.0是专为阿拉伯语和英语RAG(检索增强生成)任务设计的开源模型,基于谷歌Gemma构建,具备实体提取和多领域处理能力。
naver
Provence是一款轻量级的上下文剪枝模型,专为检索增强生成优化,尤其适用于问答场景。
thomaskim1130
基于stella_en_400M_v5架构优化的金融领域检索增强生成模型,支持金融文档的语义检索和段落匹配
openbmb
VisRAG是基于视觉语言模型(VLM)的检索增强生成(RAG)系统,可直接将文档作为图像进行嵌入表征,避免传统文本解析导致的信息损耗。
nvidia
Mistral-NeMo-Minitron-8B-Instruct 是 NVIDIA 开发的文本生成模型,支持角色扮演、检索增强生成和函数调用等多种任务,具有高效、准确的特点。
Vi-Qwen2-7B-RAG 是一个专为检索增强生成(RAG)任务定制的大语言模型,基于 Qwen2-7B-Instruct 基础模型在越南语数据集上微调而来,提升越南语处理能力和 RAG 任务执行效率。
belyakoff
基于meta-llama/Llama-3.2-3B-Instruct基础模型微调的文本生成模型,支持俄语和英语,专门针对代码生成、RAG(检索增强生成)和问答任务进行优化。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
该项目实现了一个MCP服务器和客户端,用于构建基于检索增强生成(RAG)的智能代理应用。服务器提供实体提取、查询优化和相关性检查等工具,客户端展示如何连接服务器并使用这些工具来增强RAG系统的性能。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
MCP RAG Server是一个基于Model Context Protocol的检索增强生成服务,通过本地化工具(ChromaDB和Ollama)自动索引项目文档,为连接的LLM提供上下文增强能力。
基于检索增强生成(RAG)的Godot文档查询助手,通过向量化技术和语义搜索实现智能问答
一个基于Model Context Protocol (MCP)的服务端,提供检索增强生成(RAG)能力,集成Cursor IDE和Claude Desktop等客户端,实现领域知识问答、智能检索和上下文感知的响应生成。
mcp-rag-server是一个基于Model Context Protocol (MCP)的服务,支持检索增强生成(RAG),能够索引文档并为大型语言模型提供相关上下文。
Apple RAG MCP是一个为AI代理提供苹果开发专业知识的检索增强生成系统,集成了官方Swift文档、设计指南和Apple Developer YouTube内容,通过AI驱动的混合搜索技术提供准确的技术答案。
一个基于Model Context Protocol (MCP)的服务端项目,提供检索增强生成(RAG)能力,可作为Cursor IDE和Claude Desktop等客户端与Contextual AI代理的桥梁,实现基于知识库的智能问答和上下文感知响应。
一个基于检索增强生成(RAG)的日记系统,支持按日期和主题组织日记,并提供语义搜索功能,可与AI代理连接增强交互。
一个基于TypeScript的MCP服务器,实现本地文档的检索增强生成(RAG)系统,支持Git仓库和文本文件的查询与索引。
该项目实现了一个基于FAISS向量数据库的MCP服务器,支持检索增强生成(RAG)功能,包含GitHub文件下载、文档索引、本地查询和LLM集成等完整工作流。
一个基于Python的文档处理与检索增强生成(RAG)服务器,使用DuckDB数据库存储嵌入向量,支持多种文件格式处理并提供Web界面和API接口。
MCP Apple Notes是一个基于Model Context Protocol的服务,能够对Apple Notes进行语义搜索和检索增强生成(RAG),使AI助手如Claude能在对话中引用用户的笔记。
Vectara MCP是一个基于Model Context Protocol的开源项目,为AI系统提供与Vectara的RAG平台无缝对接的能力,支持快速可靠的检索增强生成功能。
rag-mcp是一个过度设计的检索增强生成系统,通过Python服务器提供多种文本搜索模式(语义搜索、问答搜索、风格搜索),使用PostgreSQL和pgvector存储文本嵌入向量,支持与AI代理交互,架构复杂但可扩展。
该项目演示了如何实现一个支持检索增强生成(RAG)的模型上下文协议(MCP)服务器,提供知识库交互、信息检索和文档管理功能。
mcp-rag-server是一个基于Model Context Protocol(MCP)的检索增强生成(RAG)服务器,通过索引项目文档为连接的LLM提供相关上下文。它使用ChromaDB和Ollama实现本地化存储和嵌入生成,支持多种文件格式,并可通过Docker快速部署。
一个研究检索增强生成(RAG)与多云处理(MCP)服务器集成的开源项目,聚焦免费模型在商业软件中的应用,提供模块化学习路径和实践案例。
该项目实现了一个基于MCP协议的服务器,集成FAISS向量数据库和RAG技术,支持从GitHub提取Move文件并构建知识库,提供文档检索和增强生成功能。