OpenAI推出生命科学AI模型GPT-Rosalind,以DNA结构发现者命名,旨在加速药物研发。该模型通过分析生化数据,协助科研人员进行证据合成、假设生成、实验规划和蛋白质工程分析,提升实验室研究效率,推动医疗应用转化。
OpenAI发布生命科学专用AI模型GPT-Rosalind,以DNA结构发现者罗莎琳德·富兰克林命名,正式进军生物化学与基因组学领域。该模型针对生物研究需求深度微调,旨在帮助科学家缩短药物研发周期,将数据分析转化为高效智能科研流程,具备卓越科学推理能力。
湖南广电在第十三届中国网络视听大会上公布,芒果TV有效会员突破7560万。同时,其自研的“芒果大模型”已孵化80余款智能体,应用于30多档节目制作,提升生产效率超30%,AI技术已深度融入内容生产。
月之暗面推出专为AI编程优化的万亿参数大模型Kimi K2.6-code-preview,已在Kimi Code上线,标志着国产编程AI进入万亿参数时代。该模型在K2.5基础上深度优化,重点提升推理深度、代码生成可靠性和多轮对话能力,思维链表现更强,代码生成更稳定,支持复杂编程任务。
一个社区驱动的深度研究框架,结合语言模型与多种工具。
一个基于深度学习的图像和视频描述模型。
Level-Navi Agent是一个无需训练即可使用的框架,利用大语言模型进行深度查询理解和精准搜索。
一个支持DeepSeek R1的AI驱动研究助手,结合搜索引擎、网络爬虫和大型语言模型进行深度研究。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
DavidAU
本模型是基于Qwen3-Coder-30B-A3B-Instruct混合专家模型,通过Brainstorm 20x技术进行深度微调生成的GGUF格式模型。它专为编程和通用目的设计,支持256K长上下文,并针对主流及小众编程语言的代码生成和理解进行了优化。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)开发的最新一代开源思维模型,具有强大的深度推理能力和工具调用功能。该模型采用混合专家架构,支持原生INT4量化,拥有256k上下文窗口,在多个基准测试中表现出色。
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
noctrex
这是阿里巴巴通义深度研究30B-A3B模型的量化版本,采用MXFP4_MOE量化技术并额外添加imatrix量化,旨在优化模型性能和资源使用效率,适用于文本生成任务。
thenexthub
OpenModel-1T-A50B-Instruct是NeXTHub开发的万亿参数混合专家模型,结合进化思维链训练方法,在推理能力和能源效率上取得平衡,具备深度推理能力和128K长上下文处理能力。
Mitchins
这是一个基于EfficientNet-B0架构的深度学习模型,专门用于对动漫和视觉小说图像进行艺术风格分类。模型能够准确识别6种不同的动漫艺术风格,包括暗黑、扁平、现代、萌系、绘画风和复古风格。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
maomao0819
BEVANet是一个专为实时语义分割设计的深度学习模型,在Cityscapes等数据集上表现出色,在RTX3090上实现了81.0%的mIoU和32.8FPS的优异性能,平衡了精度与速度的需求。
prithivMLmods
Fathom-DeepResearch是一个双模型智能系统,由Fathom-Search-4B和Fathom-Synthesizer-4B组成,针对长时程网络搜索、证据验证以及生成引用丰富的报告进行了优化。该系统在搜索密集型任务中达到了开源权重的最优性能,超越了多个闭源的深度研究智能体。
通义深度研究30B是一款具有300亿参数的大语言模型,专为长周期、深度信息搜索任务设计。该模型在多个智能搜索基准测试中表现出色,采用创新的量化方法提升性能,支持智能预训练、监督微调与强化学习。
这是一个基于Qwen3-Coder-30B-A3B-Instruct的混合专家模型,拥有540亿参数和100万上下文长度。模型通过三步合并和Brainstorm 40X优化,具备强大的编程能力和通用场景处理能力,特别集成了思考模块,能够在回答前进行深度推理。
EpistemeAI
本模型基于GPT-OSS-20B,借助Unsloth强化学习框架进行微调,旨在优化推理效率,同时减少在从人类反馈中进行强化学习(RLHF)式训练期间出现的漏洞。微调过程着重于对齐的鲁棒性和效率,确保模型在不产生过多计算开销的情况下保持推理深度。
geoffmunn
这是Qwen/Qwen3-14B语言模型的GGUF量化版本,拥有140亿参数,具备深度推理能力、研究级准确性和自主工作流程。经过转换后可用于llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
FractalAIResearch
Fathom-DeepResearch是一个智能深度研究系统,由两个专门的4B参数模型组成:Fathom-Search-4B针对长时证据搜索优化,Fathom-Synthesizer-4B用于开放式合成和报告生成。该系统在多个搜索密集型基准测试中取得了最先进的性能,并在开放式合成基准测试上超越了多个闭源深度研究代理。
WeightedAI
波斯语OCR是一个专门针对波斯语文本设计的光学字符识别深度学习模型,采用CNN+变压器架构,在包含60万张合成波斯语文本图像的数据集上训练,序列准确率达到96%。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
inclusionAI
Ring-mini-2.0是基于Ling 2.0架构深度优化的高性能推理型MoE模型,仅有160亿总参数和14亿激活参数,却实现了与100亿规模以下密集模型相当的综合推理能力。在逻辑推理、代码生成和数学任务方面表现出色,支持12.8万长上下文处理和每秒300+令牌的高速生成。
facebook
MapAnything是一个端到端训练的Transformer模型,能够以多种模态作为输入,直接回归场景的分解度量3D几何结构。该模型支持超过12种不同的3D重建任务,包括多图像SfM、多视图立体视觉、单目度量深度估计等。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型自动分析查询复杂度并选择最佳模型处理请求,支持搜索、推理和深度研究三种工具。
Perplexity MCP Server是一个智能研究助手,利用Perplexity的AI模型提供自动查询复杂度检测和最优模型路由功能,支持搜索、推理和深度研究三种工具。
基于MCP的多智能体深度研究系统,整合LinkUp搜索、CrewAI协调和Gemini大模型,通过Streamlit提供交互界面。
基于Ollama的深度研究MCP服务,通过本地LLM模型实现自动化网络搜索与知识合成
一个结合Claude Code和Google Gemini AI的MCP服务器,通过多模型协作实现深度代码分析,Claude擅长本地上下文操作和CLI工作流,Gemini则利用其超大上下文窗口进行分布式系统调试和长轨迹分析。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
GhidraMCP是一个Ghidra插件,通过模型上下文协议(MCP)实现AI辅助的二进制分析,将逆向工程与AI助手连接,提供自然语言交互、深度代码分析、安全漏洞检测等功能。
Electron调试MCP服务器是一个连接模型上下文协议(MCP)与Electron应用的桥梁,提供通过标准化API进行高级调试的能力,深度集成了Chrome开发者工具协议(CDP)以实现高级调试功能。
Gemini DeepSearch MCP是一个自动化研究代理,利用Google Gemini模型和Google搜索进行深度多步骤网络研究,生成高质量、带引用的答案。
OmniMCP是一个通过Model Context Protocol (MCP)和OmniParser为AI模型提供丰富UI上下文和交互能力的工具,专注于通过视觉分析、结构化规划和精确交互执行实现用户界面的深度理解。
Electron MCP Server是一个基于模型上下文协议(MCP)的服务器,提供全面的Electron应用自动化、调试和可观测性功能。它通过Chrome DevTools协议集成实现AI驱动的自动化,支持实时UI交互、可视化调试、深度检查和开发观测,无需修改目标应用代码即可工作。
该项目是一个基于Ollama本地大模型的深度研究服务器,通过MCP协议提供自动化研究工具,能够迭代搜索、分析和总结复杂主题。
一个基于Node.js和Gemini API的AI研究助手工具,通过Firecrawl进行网页数据抓取,利用Gemini大模型进行深度语言理解和报告生成,支持迭代式深度研究,并可与MCP协议集成。
GitScrum MCP服务器是一个官方模型上下文协议(MCP)服务,它将AI助手(如Claude、Cursor)转变为功能齐全的项目经理,提供对GitScrum工作空间(任务、冲刺、时间跟踪、客户关系管理、分析等)的深度上下文和操作访问。
Crawl4AI MCP服务器是一个高性能的模型上下文协议服务器,为AI助手提供网页抓取、爬取和深度研究功能,通过CloudFlare Workers部署,支持OAuth认证和结构化数据提取。
OmniMCP是一个通过Model Context Protocol (MCP)和OmniParser为AI模型提供丰富UI上下文和交互能力的项目,支持视觉感知、LLM规划、动作执行等功能,实现用户界面的深度理解和精准交互。
Crawl4AI是一个基于MCP架构的智能网络爬虫服务器,结合Claude AI模型提供网站内容分析与处理功能,支持可定制的爬取深度和AI处理任务,适用于研究、内容创作、数据分析等多种场景。
MCP STL 3D浮雕生成器是一个将2D图像转换为3D浮雕模型的工具,支持控制模型尺寸、添加基座和深度反转等功能,适合3D打印和渲染。
MCP Serve是一个强大的深度学习模型服务器工具,支持通过Shell执行、Ngrok连接或Docker容器部署,集成多种先进AI技术。