阶跃星辰开源320亿参数深度研究模型Step-DeepResearch,能在开放环境中自主探索信息并生成专业报告。其研究能力接近OpenAI o3-mini等顶级商业模型,但部署成本仅为传统模型的十分之一,单次调用成本低于0.5元人民币。
谷歌向开发者开放新版深度研究代理,可嵌入应用。该代理采用迭代研究方法,能自主搜索、分析并持续优化答案,性能优于前代模型。
Opera Neon浏览器推出重大更新:集成Gemini3Pro与Nano Banana Pro双模型,支持对话中实时切换;新增“Do”智能体,可用自然语言创建编辑Google Docs,月费19.99美元。核心功能“1分钟深度研究”通过并行AI线程将复杂问题拆解,由多个研究员同时处理,5-20分钟生成带引用的结构化报告,填补快速深度研究需求空白。
11月24日,阿里AI助手“千问”启用新域名qianwen.com,网页端与App端体验一致。面向专业用户开放Qwen3系列模型,如Qwen3-Max-Thinking-Preview和Qwen3-Coder等十余款,并提供代码、深度研究等PC端优化功能,提升访问便捷性和使用体验。
一个社区驱动的深度研究框架,结合语言模型与多种工具。
一个支持DeepSeek R1的AI驱动研究助手,结合搜索引擎、网络爬虫和大型语言模型进行深度研究。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
QwQ是一款专注于深度推理能力的AI研究模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
noctrex
这是阿里巴巴通义深度研究30B-A3B模型的量化版本,采用MXFP4_MOE量化技术并额外添加imatrix量化,旨在优化模型性能和资源使用效率,适用于文本生成任务。
prithivMLmods
Fathom-DeepResearch是一个双模型智能系统,由Fathom-Search-4B和Fathom-Synthesizer-4B组成,针对长时程网络搜索、证据验证以及生成引用丰富的报告进行了优化。该系统在搜索密集型任务中达到了开源权重的最优性能,超越了多个闭源的深度研究智能体。
通义深度研究30B是一款具有300亿参数的大语言模型,专为长周期、深度信息搜索任务设计。该模型在多个智能搜索基准测试中表现出色,采用创新的量化方法提升性能,支持智能预训练、监督微调与强化学习。
geoffmunn
这是Qwen/Qwen3-14B语言模型的GGUF量化版本,拥有140亿参数,具备深度推理能力、研究级准确性和自主工作流程。经过转换后可用于llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
FractalAIResearch
Fathom-DeepResearch是一个智能深度研究系统,由两个专门的4B参数模型组成:Fathom-Search-4B针对长时证据搜索优化,Fathom-Synthesizer-4B用于开放式合成和报告生成。该系统在多个搜索密集型基准测试中取得了最先进的性能,并在开放式合成基准测试上超越了多个闭源深度研究代理。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
EleutherAI
深度无知模型套件是一个包含18个69亿参数的大语言模型集合,旨在研究通过过滤预训练数据来防止模型学习不安全技术能力(如CBRN相关能力)的方法。该套件展示了过滤数据可以有效避免不良知识学习,同时保持通用性能并具备抗篡改能力。
Jan-nano是一款专为深度研究任务设计的40亿参数紧凑型语言模型,支持与MCP服务器无缝协作及研究工具集成。
unsloth
Jan-Nano是一款40亿参数的紧凑型语言模型,专为深度研究任务设计,优化支持MCP服务器集成。
ginipick
Gemma3-R1984-4B是基于谷歌Gemma-3-4B模型构建的强大智能体AI平台,支持多模态文件处理和深度研究能力。
jasperai
由Jasper研究团队开发的深度图控制网模型,用于图像转图像任务
soumickmj
基于UNet多尺度监督的3D深度学习模型,用于7T MRA-ToF体积数据中的小血管分割,特别针对脑部微小血管病变研究。
deepsynthbody
一个用于生成合成心电图的深度学习模型,可创建逼真的心电图数据用于医疗研究和开发
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型提供自动查询复杂度检测和最优模型路由功能,支持搜索、推理和深度研究三种工具。
基于MCP的多智能体深度研究系统,整合LinkUp搜索、CrewAI协调和Gemini大模型,通过Streamlit提供交互界面。
基于Ollama的深度研究MCP服务,通过本地LLM模型实现自动化网络搜索与知识合成
Gemini DeepSearch MCP是一个自动化研究代理,利用Google Gemini模型和Google搜索进行深度多步骤网络研究,生成高质量、带引用的答案。
该项目是一个基于Ollama本地大模型的深度研究服务器,通过MCP协议提供自动化研究工具,能够迭代搜索、分析和总结复杂主题。
一个基于Node.js和Gemini API的AI研究助手工具,通过Firecrawl进行网页数据抓取,利用Gemini大模型进行深度语言理解和报告生成,支持迭代式深度研究,并可与MCP协议集成。
Crawl4AI MCP服务器是一个高性能的模型上下文协议服务器,为AI助手提供网页抓取、爬取和深度研究功能,通过CloudFlare Workers部署,支持OAuth认证和结构化数据提取。
Crawl4AI是一个基于MCP架构的智能网络爬虫服务器,结合Claude AI模型提供网站内容分析与处理功能,支持可定制的爬取深度和AI处理任务,适用于研究、内容创作、数据分析等多种场景。
Vectorize MCP Server是一个集成Vectorize服务的模型上下文协议服务器,提供向量检索、文本提取和深度研究功能。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的专用AI模型,自动检测查询复杂度并将请求路由到最合适的模型以获得最佳结果。支持搜索、推理和深度研究三种工具,适用于不同复杂度的查询任务。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的专用AI模型,根据查询复杂度自动选择最佳模型进行回答。支持快速搜索、复杂推理和深度研究三种工具,适用于不同复杂度的查询需求。
一个集成Perplexity AI搜索增强语言模型与Claude桌面的MCP服务器,提供三种不同复杂度的工具,适用于快速查询、技术分析和深度研究场景。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供网页抓取、爬取、搜索、内容提取和深度研究等功能,支持JavaScript渲染、URL发现、批量处理和自动重试等特性。