谷歌推出基于Gemini 3 Pro的深度研究助手,旨在从报告撰写工具升级为自主研究代理,具备长时间推理和复杂数据分析能力,可处理并浓缩大量信息,提供更详细准确的报告。
11月24日,阿里AI助手“千问”启用新域名qianwen.com,网页端与App端体验一致。面向专业用户开放Qwen3系列模型,如Qwen3-Max-Thinking-Preview和Qwen3-Coder等十余款,并提供代码、深度研究等PC端优化功能,提升访问便捷性和使用体验。
Claude 4.5系列模型在微软Azure平台全面公测,企业可通过Azure无服务器API直接调用,费用计入现有消费承诺。新版支持多语言SDK和Entra认证,集成Claude Code编程助手。Excel原生集成Claude实现公式生成与数据分析,Copilot Studio新增多步研究智能体功能。
OpenAI推出基于GPT-5的智能安全助手Aardvark,帮助开发者和安全团队高效应对每年数万新漏洞的挑战。该工具通过持续分析源代码,自动识别漏洞、评估风险、优先排序并提供修复方案,显著提升软件安全防护效率。
基于先进 AI 技术的学术内容创作助手。
Chirpz AI可在写作处即时查找、读取和排名学术论文,附带引用和元数据。
SEO45 AI是一款全自动SEO内容生成系统,从关键词研究到发布,完全自动化,实现网站持续增长。
DeepPDF是一个AI研究助手,用于深度学习PDF文档,提供聊天、摘要、翻译比较以及关键术语、图片和公式分析功能。
Anthropic
$105
Input tokens/M
$525
Output tokens/M
200
Context Length
$7
$35
Alibaba
-
$3.9
$15.2
64
$54
$163
1k
$2
Bytedance
$0.8
$8
256
Iflytek
$0.3
32
Google
$140
$280
Tencent
$0.5
224
$8.75
$70
$21
Openai
$14
$56
AstroMLab
AstroSage-Llama-3.1-8B 是一款专为天文学、天体物理学和宇宙学研究设计的领域专用自然语言人工智能助手。
RedHatAI
Llama-3.2-3B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别适合类似助手的聊天场景。
这是一个基于Llama-3.2-11B-Vision-Instruct的量化模型,适用于多语言的商业和研究用途,可用于类似助手的聊天场景。
Meta-Llama-3.1-8B-Instruct的量化版本,经过优化减少磁盘空间和GPU内存需求,适用于英文商业和研究用途的聊天助手场景。
Meta-Llama-3.1-405B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别优化用于助手机器人场景。
Meta-Llama-3.1-70B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别适合类似助手的聊天场景。
Meta-Llama-3.1-8B-Instruct的FP8量化版本,支持多语言,适用于商业和研究场景的助手式聊天任务。通过FP8量化技术,模型大小和GPU内存需求减少约50%,同时保持接近原始模型的性能。
Meta-Llama-3.1-8B-Instruct的FP8量化版本,适用于多语言的商业和研究用途,特别优化用于类似助手的聊天场景。
Meta-Llama-3-70B-Instruct 的量化版本,主要用于英文的商业和研究用途,能高效地进行类助手聊天。
Mistral-7B-Instruct-v0.3-FP8 是 Mistral-7B-Instruct-v0.3 的量化版本,通过将权重和激活量化为 FP8 数据类型实现高效推理。该模型适用于英文的商业和研究用途,专为助手式聊天场景设计,在保持高性能的同时显著减少存储和内存需求。
Meta-Llama-3-8B-Instruct-FP8 是 Meta-Llama-3-8B-Instruct 的量化版本,通过将权重和激活量化为 FP8 数据类型,在减少磁盘空间和 GPU 内存需求的同时保持较高性能。适用于英文的商业和研究用途,可用于类似助手的聊天场景。
lmsys
Vicuna是一个基于Llama 2微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行有监督指令微调训练得到。该模型主要用于大语言模型和聊天机器人的研究,支持16k上下文长度,目标用户为自然语言处理、机器学习和人工智能领域的研究人员和爱好者。
PKU-Alignment
Beaver是基于Alpaca模型,使用Safe-RLHF技术训练的聊天助手,专注于大语言模型的安全性研究。
Vicuna 是基于 LLaMA 微调而成的开源聊天助手,通过用户共享对话数据训练,适用于自然语言处理研究。
HuggingFaceH4
基于StarCoder微调的编程助手语言模型,160亿参数规模,支持英语,适用于教育研究领域
Vicuna是一个基于LLaMA微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行监督指令微调训练得到。该模型主要用于大语言模型和聊天机器人的研究,为自然语言处理、机器学习和人工智能领域的研究人员和爱好者提供强大的研究工具。
Vicuna是一个基于LLaMA微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行有监督指令微调训练得到。该模型主要用于大语言模型和聊天机器人的研究,由LMSYS开发并采用非商业许可证。
Vicuna是一个基于LLaMA微调的聊天助手模型,通过在ShareGPT收集的用户共享对话上进行有监督指令微调训练得到。主要用于大语言模型和聊天机器人的研究,采用非商业许可证。
ArXiv MCP Server是一个连接AI助手与arXiv研究库的桥梁,通过MCP协议实现论文搜索和内容访问功能。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型提供自动查询复杂度检测和最优模型路由功能,支持搜索、推理和深度研究三种工具。
一个简单的MCP服务器,帮助AI助手进行域名研究,包括检查可用性、查询WHOIS信息、查找过期域名等,无需API密钥即可使用。
DeepResearch MCP是一个基于模型上下文协议(MCP)的智能研究助手,通过自动网络搜索、内容分析和结构化报告生成,提供全面的研究支持。
Claude深度研究是一个基于MCP协议的研究服务器,为Claude等AI助手提供综合研究能力,整合了网页和学术搜索功能,支持多源信息获取、内容提取和结构化分析。
Gramps MCP是一个AI驱动的家谱研究与管理工具,通过MCP协议为AI助手提供对Gramps家谱数据库的直接访问,支持智能搜索、数据管理和家族关系分析等功能
HydraMCP是一个轻量级、可扩展的网络安全工具包,通过模型上下文协议(MCP)将AI助手与安全工具连接,支持AI辅助的安全研究、扫描和分析。
MCP as a Judge 是一个行为型 MCP 服务器,作为 AI 编码助手与 LLM 之间的验证层,通过强制执行基于证据的研究、代码质量审查和人工决策介入,确保生成更安全、高质量的代码。
一个集成Perplexity AI的智能研究助手,提供搜索、文档检索、API发现和代码现代化检查功能,支持上下文跟踪和高效API管理。
QuantConnect MCP Server是一个专为量化交易设计的本地化模型上下文协议服务器,提供完整的QuantConnect平台集成,包括研究环境、统计分析、组合优化等功能,支持通过自然语言与AI助手交互进行量化策略开发。
Linked API MCP服务器是一个连接LinkedIn账户与AI助手的工具,通过云浏览器安全自动地实现潜在客户搜索、消息发送、资料分析和市场研究等功能,适用于销售自动化、招聘辅助和对话管理等场景。
一个基于Node.js和Gemini API的AI研究助手工具,通过Firecrawl进行网页数据抓取,利用Gemini大模型进行深度语言理解和报告生成,支持迭代式深度研究,并可与MCP协议集成。
ThinkingCap是一个基于模型上下文协议的多智能体研究服务器,可并行运行多个LLM提供商并综合其响应,实现全面的多角度分析。
ExploitDB MCP服务器是一个提供漏洞数据库查询功能的模型上下文协议服务,由Cyreslab.ai开发,用于增强AI助手在网络安全研究中的能力。
基于模型上下文协议的AMiner学术搜索服务器,提供论文关键词、期刊、作者搜索和AI研究助手功能
Open Deep Research MCP Server是一个AI驱动的深度研究助手,通过结合搜索引擎、网页抓取和AI技术进行迭代式深度研究,生成全面报告。支持MCP协议和CLI两种使用方式,具备可靠性评估、范围控制、自动生成后续问题等功能。
Crawl4AI MCP服务器是一个高性能的模型上下文协议服务器,为AI助手提供网页抓取、爬取和深度研究功能,通过CloudFlare Workers部署,支持OAuth认证和结构化数据提取。
Zotero MCP是一个连接Zotero研究库与Claude等AI助手的工具,通过Model Context Protocol实现论文搜索、摘要生成、引用分析、PDF批注提取等功能。
Vibe Coder是一个MCP服务器,为AI助手提供强大的软件开发工具,包括代码生成、研究、规划和项目脚手架等功能。