Google推出两款AI调研智能体Deep Research和Max,基于Gemini 3.1Pro模型,可自动化完成资料搜集与分析,从问答迈向复杂任务执行。现已通过付费API开放预览,支持检索公开网页及企业内部私有数据。
跨境电商进入AI驱动新阶段,亚马逊推出AI购物助手Rufus,通过智能推荐和问答提升购物体验,标志着行业向智能化、个性化服务升级。
中国AI大模型在全球消费市场迅速崛起,连续两周调用量超越美国,包揽全球前三。OpenRouter数据显示,截至3月15日,周调用量达4.69万亿Token,增长动力主要来自OpenClaw等AI Agent应用,推动从问答到智能代理的质变。
蚂蚁健康与中华医学会杂志社深化合作,其健康AI应用“蚂蚁阿福”已接入顶级医学文献知识库,问答功能可引用最新临床指南、专家共识等权威内容,专业度显著提升。这是该知识库首次以“知识片段”形式通过专业AI向公众全面开放,旨在推动专业医学知识普惠大众。
专为PDF而生的AI,可免费生成摘要、回答问题,支持翻译与多文件聊天。
AI问答助手,用截图获取智能答案
基于DeepSeek R1和V3模型的浏览器侧边栏AI工具,提供问答、创作、翻译等功能
Reddit的新问答功能,通过AI技术获取社区信息和讨论。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
Baidu
128
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
kurakurai
Luth-LFM2-350M 是与 Liquid AI 合作开发的法语优化语言模型,基于 LFM2-350M 在 Luth-SFT 数据集上进行法语微调。该模型在保持英语能力的同时,显著提升了法语指令遵循、数学推理和常识问答能力。
Intelligent-Internet
II-Medical-8B是智能互联网研发的新一代医疗大语言模型,专为增强AI医疗推理能力而设计,在医疗问答能力上实现重大突破。
yukiarimo
Yuna Ai V4是一款基于LLaMA 3.1 8B架构的多语言文本生成模型,专注于提供智能对话和知识问答体验。经过3B+令牌训练,具备量子思维等先进特性,在对话能力和创造力方面表现突出。
kodetr
这是一个专门针对印度尼西亚法律咨询领域的问答AI模型,基于Llama-3.2-1B架构微调训练而成,能够为印尼法律相关问题提供专业的解答服务。
jondurbin
基于Meta的Llama-3构建的实验性模型,使用airoboros生成的合成数据进行调优,并结合多种DPO数据集进行额外调优,擅长上下文问答、摘要生成、长文本生成等多种任务。
ruslanmv
专为医学问答微调的Llama3模型,基于AI医疗聊天机器人数据集训练,提供专业医学解答。
microsoft
UDOP是一个基于T5的编码器-解码器Transformer架构,用于处理文档AI任务,如图像分类、文档解析和视觉问答。
Kaludi
EurekaQA是一款基于先进机器学习算法的AI问答模型,能够通过分析文本数据自动提取信息回答问题。
Haiku RAG是一个基于LanceDB、Pydantic AI和Docling构建的智能检索增强生成系统,支持混合搜索、重排序、问答代理、多代理研究流程,并提供本地优先的文档处理和MCP服务器集成。
该项目通过搭建Claude Code与Google Gemini AI的桥梁,实现在Claude Code环境中直接调用Gemini进行问答、代码审查和创意头脑风暴,提供便捷的AI协作工具。
该项目是一个基于Google Cloud Vertex AI Gemini模型的MCP服务器,提供丰富的工具集用于代码辅助和通用问答,支持网络搜索增强回答、文档解释生成、文件系统操作等功能。
一个防止AI幻觉的MCP服务,当AI不确定时可以向人类提问而非盲目自信,通过简单的问答机制提升开发效率。
一个基于Gemini API和Google搜索的MCP服务器,通过与AI助手(如Cline)结合使用,提供最新信息的智能回答功能。
Moondream MCP Server是一个基于Moondream视觉模型的图像分析服务,提供图像描述生成、物体检测和视觉问答功能,可轻松集成到Claude和Cline等AI助手中。
一个基于Model Context Protocol (MCP)的服务端项目,提供检索增强生成(RAG)能力,可作为Cursor IDE和Claude Desktop等客户端与Contextual AI代理的桥梁,实现基于知识库的智能问答和上下文感知响应。
该项目提供了在Android Studio中集成AI聊天功能的指南,使开发者能够通过自然语言与代码和项目交互,包括代码问答、修改、解释和调试等功能。
File Context MCP是一个基于TypeScript的应用程序,提供API通过本地文件内容查询大型语言模型(LLMs),支持多种LLM提供商(Ollama和Together.ai),可处理多种文件类型生成上下文感知的响应。
Inkeep MCP是一个基于模型上下文协议(MCP)的通用文档连接器,它通过模拟浏览器访问,将本地AI工具(如Gemini CLI、Claude Desktop)与任何使用Inkeep服务的文档网站(如Langfuse、Render等)的“AI问答”功能连接起来,让AI助手能直接查询官方文档。
Flexible GraphRAG是一个支持多数据源文档处理、知识图谱自动构建、混合搜索(全文、向量、图)和AI问答的灵活平台,包含FastAPI后端、MCP服务器和多种前端界面。
TiDB AI的MCP服务端,为Cursor提供问答接口
一个基于MCP协议的Vercel AI SDK文档查询代理服务,提供AI驱动的文档搜索和问答功能,支持与Claude Desktop等MCP客户端集成。
该项目实现了一个基于FAISS向量数据库的MCP服务器,支持检索增强生成(RAG)功能,包含GitHub文件下载、文档索引、本地查询和LLM集成等完整工作流。
基于Google Gemini Vision API的YouTube视频分析MCP服务,提供视频描述、摘要、问答和关键片段提取功能。
Biel.ai MCP服务器将IDE连接到产品文档,通过RAG技术让AI工具能够访问和搜索公司知识库,提供智能代码补全和技术问答。
rag-mcp是一个过度设计的检索增强生成系统,通过Python服务器提供多种文本搜索模式(语义搜索、问答搜索、风格搜索),使用PostgreSQL和pgvector存储文本嵌入向量,支持与AI代理交互,架构复杂但可扩展。
一个关于欧盟AI法案的问答聊天机器人项目,采用混合检索方法(向量搜索+知识图谱),提供本地运行和AWS Lambda部署方案。
一个基于Bun运行时的MCP服务器模板,专门用于构建AI问答工具,提供多类别、多难度的交互式测验功能。
一个基于RAG技术的宝可梦问答助手,整合PokeAPI数据库与AI能力,提供准确信息交互