OpenClaw生态核心技能注册中心ClawHub正式上线中国镜像,旨在为中国用户提供更快速稳定的技能访问体验,降低跨境网络延迟。ClawHub作为OpenClaw AI Agent框架的官方技能市场,被喻为“AI Agent的npm仓库”,支持开发者发布、版本管理及向量搜索技能。
谷歌在全球推出“Search Live”功能,用户可通过手机摄像头和语音与AI实时交互,实现多模态搜索。该功能由Gemini 3.1 Flash Live模型驱动,提升了对话的自然度和响应速度。
Booking CEO警告AI搜索威胁中小酒店生存,指出谷歌Gemini和OpenAI ChatGPT等AI助手通过单一化推荐取代传统搜索的多元选择,可能加剧行业垄断。
OpenAI推出“智能体商业协议”,ChatGPT将升级为可直接完成搜索、比价、下单的全流程购物助手。用户无需跳出应用,即可获取实时库存并完成购买,告别以往只能获得抽象建议的局限。
一站式AI求职工具包,涵盖简历制作、申请管理和职位搜索等功能
AI驱动的求职工具包,涵盖简历制作、职位搜索等,加速求职进程。
强大的反向人脸搜索引擎,上传照片60秒出结果,准确率98.7%
数小时完成文献综述,搜索数百万篇科研论文,含图表数据,材料研发可提前试用。
Google
$0.7
Input tokens/M
$2.8
Output tokens/M
1k
Context Length
Tencent
$1
$4
32
Alibaba
$54
$163
Baidu
-
Bytedance
$0.8
$8
256
$0.5
Huawei
128
$2.4
$9.6
Openai
Baichuan
$15
$16
192
Moonshot
$10
$30
131
$200
Chatglm
$100
8
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
spartan8806
这是一个基于sentence-transformers/all-mpnet-base-v2微调而来的句子转换器模型,能够将文本映射到768维的密集向量空间,支持语义相似度计算、语义搜索、文本分类等多种自然语言处理任务。
mudasir13cs
这是一个基于Google Gemma-3-4B-IT模型微调的文本生成模型,专门用于根据演示模板元数据生成多样化且相关的搜索查询。该模型使用LoRA适配器进行高效微调,是结构化文档字段自适应密集检索框架的关键组成部分。
Tarka-AIR
Tarka-Embedding-350M-V1是一个拥有3.5亿参数的文本嵌入模型,能够生成1024维的密集文本表示。该模型针对语义相似性、搜索和检索增强生成(RAG)等下游应用进行了优化,支持多种语言并具有长上下文处理能力。
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
Fathom-Search-4B GGUF是专为文本生成任务打造的强大工具,基于特定的基础模型和技术生成,在搜索密集型基准测试中表现卓越,能够有效解决长周期信息检索与合成的问题。
mradermacher
A2Search-3B-Instruct是基于zfj1998/A2Search-3B-Instruct的静态量化版本,提供多种量化类型选择。这是一个30亿参数的大语言模型,专门针对搜索和指令跟随任务进行优化,支持英语语言处理。
prithivMLmods
Fathom-DeepResearch是一个双模型智能系统,由Fathom-Search-4B和Fathom-Synthesizer-4B组成,针对长时程网络搜索、证据验证以及生成引用丰富的报告进行了优化。该系统在搜索密集型任务中达到了开源权重的最优性能,超越了多个闭源的深度研究智能体。
redis
这是一个基于sentence-transformers库微调的BiEncoder模型,专门为LangCache语义缓存任务优化。模型将句子和段落映射到384维向量空间,支持语义相似度计算和语义搜索等任务。
通义深度研究30B是一款具有300亿参数的大语言模型,专为长周期、深度信息搜索任务设计。该模型在多个智能搜索基准测试中表现出色,采用创新的量化方法提升性能,支持智能预训练、监督微调与强化学习。
多拉多网络冲浪工具扩展版是基于通义千问3-4B微调的函数调用和智能推理模型,专为网络搜索编排、工具增强推理和动态问题解决而设计。它在智能决策、工具选择和结构化执行流程方面表现出色。
FractalAIResearch
Fathom-DeepResearch是一个智能深度研究系统,由两个专门的4B参数模型组成:Fathom-Search-4B针对长时证据搜索优化,Fathom-Synthesizer-4B用于开放式合成和报告生成。该系统在多个搜索密集型基准测试中取得了最先进的性能,并在开放式合成基准测试上超越了多个闭源深度研究代理。
MEGHT
基于Qwen3 0.6B模型微调的搜索查询生成模型,能够根据用户输入和对话上下文生成相关的搜索查询,适用于搜索引擎建议系统和聊天机器人等应用场景。
Jan-v1-AIO-GGUF包含两款强大的语言模型:Jan-v1-4B和Jan-v1-edge。Jan-v1-4B基于Qwen3-4B-thinking架构,拥有40亿参数,具备强大的智能推理、问题解决和工具使用能力,支持网页搜索任务。Jan-v1-edge是轻量级智能模型,专为在设备上快速执行而设计,适用于资源受限环境。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
jet-ai
Jet-Nemotron-4B是NVIDIA推出的高效混合架构语言模型,基于后神经架构搜索和JetBlock线性注意力模块两大核心创新构建,在性能上超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等开源模型,同时在H100 GPU上实现了最高53.6倍的生成吞吐量加速。
Nihal2000
这是 sentence-transformers/all-MiniLM-L6-v2 模型的 TensorFlow Lite 转换版本,专门为边缘设备优化。该模型可将文本映射到384维向量空间,支持语义搜索、文本相似度计算等任务。提供Float32和INT8量化两个版本,量化版本体积缩小约4倍,在CPU上运行速度显著提升。
cpatonn
Llama-3.3-Nemotron-Super-49B-v1.5是基于Meta Llama-3.3-70B-Instruct的大语言模型,经过多阶段后训练增强了推理、聊天偏好和代理任务能力。采用神经架构搜索技术,在保持高准确性的同时显著提升效率,支持128K令牌上下文长度和多语言处理。
基于Meta Llama-3.3-70B-Instruct的大语言模型,经过多阶段训练优化,在推理、聊天等任务上表现出色,支持多种语言,适用于多种AI应用场景。采用神经架构搜索技术优化,能够在单个H100-80GB GPU上高效运行。
gabriellarson
Llama-3.3-Nemotron-Super-49B-v1.5是NVIDIA开发的高效大语言模型,基于Meta Llama-3.3-70B-Instruct衍生而来。该模型在推理、聊天交互和代理任务方面表现出色,通过神经架构搜索技术显著降低了内存占用,支持128K令牌的上下文长度,在数学、代码、科学和工具调用等多方面能力得到增强。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
Acemcp是一个代码库索引和语义搜索的MCP服务器,支持自动增量索引、多编码文件处理、.gitignore集成和Web管理界面,帮助开发者快速搜索和理解代码上下文。
Haiku RAG是一个基于LanceDB、Pydantic AI和Docling构建的智能检索增强生成系统,支持混合搜索、重排序、问答代理、多代理研究流程,并提供本地优先的文档处理和MCP服务器集成。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
Airweave是一个开源的人工智能代理和RAG系统的上下文检索层,它连接并同步各种应用程序、工具和数据库的数据,通过统一的搜索接口为AI代理提供相关、实时、多源的上下文信息。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
Desktop Commander MCP是一个让Claude桌面应用能够执行终端命令、管理文件系统的AI助手工具,支持代码搜索、编辑、进程管理和远程文件读取等功能。
该项目是一个MCP服务器,用于通过Obsidian的Local REST API插件与Obsidian笔记应用交互。它提供了多种工具来操作和管理Obsidian中的文件,包括列出文件、获取文件内容、搜索、修改内容和删除文件等。
微软官方MCP服务器,为AI助手提供最新微软技术文档的搜索和获取功能
Apify MCP服务器是一个基于模型上下文协议(MCP)的工具,允许AI助手通过数千个现成的爬虫、抓取器和自动化工具(Apify Actor)从社交媒体、搜索引擎、电商等网站提取数据。它支持OAuth和Skyfire代理支付,可通过HTTPS端点或本地stdio方式集成到Claude、VS Code等MCP客户端中。
WhatsApp MCP服务器是一个通过WhatsApp网页多设备API连接个人账户的工具,支持消息搜索、发送及多媒体处理,并与Claude等LLM集成。
一个为Claude/Cursor设计的OpenAPI规范探索服务器,通过三步流程帮助用户搜索和理解API文档。
ArXiv MCP Server是一个连接AI助手与arXiv研究库的桥梁,通过MCP协议实现论文搜索和内容访问功能。
MCP Agent Mail是一个为AI编程代理设计的邮件式协调层,提供身份管理、消息收发、文件预留和搜索功能,支持多代理异步协作和冲突避免。
该项目是一个集成Sonar API的MCP服务器实现,为Claude提供实时网络搜索能力。包含系统架构、工具配置、Docker部署及多平台集成指南。
这是一个持续更新的MCP服务器精选列表,涵盖了浏览器控制、艺术与文化、云平台、命令行、通信、客户数据平台、数据库、开发者工具、数据科学工具、文件系统、金融与金融科技、游戏、知识与记忆、位置服务、营销、监控、搜索和实用工具等多个类别。每个项目都附带了GitHub链接和星标数量,方便用户快速了解和使用。
一个通过searXNG连接代理系统与搜索系统的MCP服务器
MoltBrain是一个为OpenClaw、MoltBook和Claude Code设计的长期记忆层插件,能够自动学习和回忆项目上下文,提供智能搜索、观察记录、分析统计和持久化存储功能。
Anna's Archive的MCP服务器和CLI工具,用于搜索和下载该平台的文档,支持通过API密钥访问。