OceanBase在2025年度发布会上开源AI数据库seekdb,支持三行代码快速构建知识库和智能体应用,处理百亿级多模数据检索。产品提供向量、全文、标量及空间地理数据的统一混合搜索,深度融合AI推理与数据处理,兼容Hugging Face等30多种主流AI框架,实现“开箱即用”的AI数据基座。
谷歌推出DS STAR多智能体框架,可将模糊商业问题自动转化为可执行Python代码,无需人工介入。该框架突破传统依赖结构化SQL数据库的限制,能直接处理CSV、JSON、Markdown及非结构化文本等混合格式数据。通过Aanalyzer等组件分阶段实现从问题分析到代码生成的全流程自动化。
国产团队Moonshot AI发布Kimi Linear架构技术报告,提出可替代完全注意力机制的混合线性架构。该架构在速度、内存效率和长上下文处理三方面实现突破,显著降低KV缓存使用,兼具高效与性能优势,被誉为智能体时代注意力机制新起点。
蚂蚁集团开源百灵大模型Ring-flash-linear-2.0-128K,专攻超长文本编程。采用混合线性注意力与稀疏MoE架构,仅激活6.1B参数即可媲美40B密集模型,在代码生成和智能代理领域达到最优表现,高效解决长上下文处理痛点。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
-
Anthropic
$105
$525
200
$7
$35
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$3.9
$15.2
64
$15.8
$12.7
Bytedance
$0.8
$0.15
$1.5
32
Xai
$1.4
$10.5
$54
$163
Kiy-K
Fyodor-StarCoder2-7B-MoE是基于StarCoder2-7B的增强版本,采用混合专家架构,拥有3个MoE层、6个专家网络和top-2路由机制,在代码生成、函数调用和智能体任务方面表现优异。
unsloth
Qwen3-Coder-REAP-363B-A35B是通过REAP方法对Qwen3-Coder-480B-A35B-Instruct进行25%专家剪枝得到的稀疏混合专家模型,在保持接近原模型性能的同时显著降低了参数规模和内存需求,特别适用于资源受限的代码生成和智能编码场景。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
Qwen3-VL是迄今为止Qwen系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型采用混合专家(MoE)架构,提供卓越的多模态处理能力。
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
redponike
MiniMax-M2是一款专为高效编码和智能体工作流打造的混合专家模型,具备2300亿总参数和100亿激活参数。该模型在编码和智能体任务中表现卓越,同时具有低延迟、低成本和高吞吐量的特点,能有效提升工作效率。
bullerwins
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家(MoE)模型。它拥有2300亿总参数,仅激活100亿参数,在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的'迷你'模型。它是一个紧凑、快速且经济高效的混合专家(MoE)模型,在编码和智能体任务中表现卓越,同时还具备强大的通用智能。
MiniMaxAI
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的'迷你'模型,采用混合专家架构,总参数2300亿,激活参数100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用增强推理的思维架构,支持从边缘到云的密集架构和混合专家模型架构。
Qwen
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用混合专家模型架构,支持增强推理思维功能。
vito95311
这是Qwen3-Omni 31.7B参数模型的专业量化版本,采用先进的INT8+FP16混合精度量化技术,内存使用减少50%以上,支持智能GPU/CPU混合推理,让大型多模态模型能够在消费级硬件上高效运行。
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面均有显著提升。该模型提供密集架构和混合专家模型架构,支持从边缘到云的不同规模部署。
chaoyinshe
EchoVLM是一个专为医学超声领域设计的动态专家混合视觉语言模型,能够处理图像和文本输入并生成文本输出,在超声智能诊断中具有重要应用价值。
Sci-fi-vy
GPT-OSS-20B是OpenAI推出的开放权重模型,专为强大推理、智能体任务和多样化开发者用例设计。该模型具有210亿参数(其中36亿为活跃参数),采用混合专家架构,支持低延迟本地部署和特定场景应用。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
cpatonn
GLM-4.5-Air-AWQ是基于GLM-4.5-Air基础模型的8位量化版本,专为智能代理设计,采用混合推理模式,支持复杂推理和即时响应,在MIT开源许可下发布。
Kimi K2是一款先进的混合专家(MoE)语言模型,具备320亿激活参数和1万亿总参数,针对智能代理能力进行了优化。
一个高性能的MCP服务器,用于语义代码搜索,采用Rust编写,支持混合搜索(BM25+向量嵌入)、AST智能分块和60多种编程语言。
ClaudeHopper是一个基于AI的建筑文档辅助工具,通过RAG和混合搜索技术实现与施工图纸、规范文档的智能交互。
一个多功能文档处理MCP服务器,支持从多种来源抓取、处理并智能检索第三方软件包文档,集成OpenRouter多模型API,提供混合搜索能力。
这是一个针对石油天然气行业的MCP+RAG概念验证项目,通过智能路由将用户查询自动分发到正确的领域服务(如钻井、生产、采购等),并结合混合检索技术从文档中获取精准信息,提供带引用的答案,实现跨域数据的快速统一访问。
一个用于获取和搜索第三方软件包文档的MCP服务器,支持多源抓取、智能处理和混合搜索。
基于iFlytek的MCP服务器实现,支持智能工作流调度与多模型混合应用架构。
一个轻量级MCP服务器,专注于爬取文档网站并使用Jina AI和Supabase进行RAG索引,支持多项目管理、智能URL发现和混合内容提取。