谷歌为Chrome浏览器新增AI功能,在最新测试版中推出由Gemini驱动的“Nano Banana”图像生成工具和“深度搜索”主题研究功能。用户可直接在搜索框内创作图像或进行信息检索,无需切换页面即可快速启动任务。
中国首个标准大模型“同道”互联网版上线,推动标准化工作进入AI驱动新阶段。该模型旨在解决标准领域“检索难、撰写慢、应用弱”的难题,通过人工智能提升效率、精度和协同性,助力在海量文本中精准定位信息,实现标准化工作的深刻变革。
国内首个标准化领域大模型"同道"互联网版正式上线,旨在解决行业标准检索困难、文档撰写效率低等痛点,帮助从业人员快速定位海量标准文献信息,提升工作效率。
检索增强生成(RAG)技术通过检索知识库信息提升大语言模型回答准确性,但处理语言多样性时存在不足。为此,Lexical Diversity-aware RAG 方法被提出,旨在优化模型对多样化表达的理解,增强生成答案的可靠性。
一个提供广泛知识和信息的在线百科全书。
利用AI释放创新潜力,加速创新并提升研发战略。
CLaMP 3 是一个用于跨模态和跨语言音乐信息检索的统一框架。
开源的深度研究工具,旨在通过开源框架复现类似Deep Research的功能
xai
$2.16
Input tokens/M
$3.6
Output tokens/M
1M
Context Length
cohere
-
128k
mradermacher
Diver-GroupRank-7B是一个专门用于段落排序、文本排序、推理和信息检索的7B参数模型。本版本提供了多种量化格式,适用于不同的硬件和性能需求。
基于AQ-MedAI/Diver-GroupRank-7B模型的静态量化版本,专门用于段落排序、文本排序、推理和信息检索等任务。提供了多种量化级别以适应不同的硬件需求。
LiquidAI
PyLate是一个专注于句子相似度计算和信息检索的工具库,能在多种数据集上进行高效的信息检索任务,为相关领域的研究和应用提供了有力支持。该模型支持8种语言,在多个基准测试中表现出色。
Mungert
Fathom-Search-4B GGUF是专为文本生成任务打造的强大工具,基于特定的基础模型和技术生成,在搜索密集型基准测试中表现卓越,能够有效解决长周期信息检索与合成的问题。
jinaai
jina-reranker-v3是一款参数为0.6B的多语言文档重排器,采用创新的'最后但不迟的交互'架构,能够在多语言环境下高效准确地对文档进行重排,显著提升信息检索的相关性和效率。
driaforall
这是一个具有8位精度的MLX版本内存代理模型,基于Qwen3-4B-Thinking-2507训练,专门用于处理内存系统中的信息检索、更新和澄清任务。
ReasonRank-32B 是基于 liuwenhan/reasonrank-32B 基础模型的量化版本,提供多种量化权重文件,专门用于段落排序、文本排序、推理和信息检索等任务。该模型经过静态量化处理,适用于多种应用场景。
MongoDB
mdbr-leaf-ir 是 MongoDB Research 开发的专为信息检索任务设计的高性能紧凑型文本嵌入模型,特别适用于 RAG 管道的检索阶段。该模型采用知识蒸馏技术,支持非对称架构、MRL 截断和向量量化,在 BEIR 基准测试中表现出色。
ibm-granite
基于granite-vision-3.3-2b构建的高效嵌入模型,专为多模态文档检索设计,可处理包含表格、图表、信息图和复杂布局的文档。
lightonai
PyLate是一个基于ColBERT架构的句子相似度模型,采用Alibaba-NLP/gte-modernbert-base作为基础模型,通过蒸馏损失训练,适用于信息检索任务。
sdadas
MMLW是用于波兰语的神经文本编码器,针对信息检索任务进行了优化,能够将查询和段落转换为1024维向量。
soob3123
谷歌Gemma 3 4B模型的专用变体,专为无道德倾向的信息检索系统优化,规避传统对齐模式引入的响应偏见。
RichardErkhov
基于Qwen2.5-0.5B-Instruct微调的文本排序模型,适用于信息检索和相关性排序任务
基于Qwen2.5架构的0.5亿参数文本排序模型,适用于信息检索和文档排序任务
DISLab
Gen-8B-R2是一个专注于减少RAG系统中幻觉问题的生成模型,特别适用于处理检索噪声和信息过载的情况。
jhu-clsp
rank1是一款基于Qwen2.5-0.5B训练的信息检索重排序模型,通过生成推理链提升相关性判断准确性。
rank1-3b是一个基于Qwen2.5-3B训练的信息检索重排序模型,通过生成推理链进行相关性判断
mohamed2811
基于埃及法律书籍和合成数据训练的阿拉伯语句子转换器,专为语义文本相似度和信息检索任务优化。
rank1-32b是一个基于Qwen2.5-32B训练的信息检索重排序模型,通过生成推理链进行相关性判断
rank1是一个140亿参数的推理重排序模型,通过生成显式推理链再进行相关性判断,提高了信息检索任务的性能。
Supermemory是一个AI驱动的记忆引擎,旨在通过整合个人数据为LLM提供上下文知识,实现信息的智能管理和检索。
一个为Claude设计的网页研究MCP服务器,提供实时网络信息检索功能
基于知识图谱的持久化记忆服务器,支持跨会话用户信息存储与检索
Mem0 MCP服务器是一个为LLM提供持久化记忆能力的模型上下文协议服务,支持云端和本地两种存储模式,实现跨会话的信息存储与检索。
一个基于Gemini API和Google搜索的MCP服务器,通过与AI助手(如Cline)结合使用,提供最新信息的智能回答功能。
一个用于从Pinecone Assistant检索信息的MCP服务器实现
基于OpenAlex API的学术论文搜索MCP服务,提供按主题、关键词或作者检索论文功能,并能获取论文详情信息。
该项目是一个集成了多种功能的MCP服务器套件,包含媒体工具、信息检索、PDF生成和演示文稿创建等服务,需分别配置运行。
智言平台是一个开源的智能体交流与开发平台,旨在帮助AIGC爱好者更好地了解和开发Agent。平台提供了多种默认Agent功能,如邮件发送、信息搜索、天气查询、论文查找、快递查询和文档检索等,并支持用户自定义工具。项目支持快速启动和Docker部署,未来计划增加工具商店和自动构建功能。
这是一个基于SQLite的项目记忆库管理服务,通过MCP协议提供项目背景、决策记录、进度更新等信息的存储和检索功能,支持按项目路径独立管理数据。
DevRev的MCP服务器,用于通过API搜索和检索信息
这是一个用于与ArtifactHub上的Helm图表交互的MCP服务器,提供Helm图表信息查询、默认值获取、模糊搜索和模板检索等功能。
一个本地运行的RAG式网络搜索模型上下文协议(MCP)服务器,无需API即可为Claude等模型提供最新网络信息检索功能。
这是一个基于Spring Boot和Spring AI的MCP服务器项目,专门用于查询Java会议信息。它通过解析GitHub上的公开README文件获取会议数据,并提供工具函数让AI模型能够检索会议名称、CFP链接、地点、CFP状态等信息。
Memory Bank MCP是一个基于Model Context Protocol(MCP)的服务器,用于管理Memory Banks,允许AI助手跨会话存储和检索信息。支持远程SSH服务器存储,提供多种操作模式和工具,帮助AI助手维护上下文并跟踪跨会话进度。
一个提供The Verge新闻获取与搜索功能的MCP服务器
一个基于Python的Kubernetes集群只读MCP服务,提供全面的API来检索集群信息和诊断问题。
Memory Bank MCP 是一个基于模型上下文协议(MCP)的服务器,用于管理记忆库,使AI助手能够在不同会话间存储和检索信息。
QualisMcp是一个基于Model Context Protocol (MCP)框架的巴西学术期刊评估系统,用于高效检索和管理2017-2020年期间的事件分类信息。
aica是一个开源、可定制、跨平台的AI代码分析工具,支持代码审查、自动知识检索、提交信息生成等功能,并能与GitHub Actions集成。