近日,开源项目BrowserUse发布自研大语言模型BU-30B-A3B-Preview,被誉为网页代理领域新标杆。该模型采用混合专家(MoE)架构,总参数达300亿,但推理时仅激活部分参数,兼顾强大性能与轻量化运行,显著降低了AI浏览器操作的成本与门槛。
小米新任大模型负责人罗福莉在2025小米生态大会上,正式发布全新MoE大模型MiMo-V2-Flash。该模型采用Hybrid SWA架构,设计简洁优雅,在长上下文推理方面表现突出,标志着小米向人工通用智能(AGI)目标迈出重要一步。
腾讯自研大模型混元2.0(Tencent HY2.0)正式发布,与此同时,DeepSeek V3.2也逐步接入腾讯生态。目前,这两大模型已在元宝、ima等腾讯AI原生应用中率先上线,腾讯云也同步开放了相关模型的API及平台服务。 全新发布的Tencent HY2.0采用混合专家(MoE)架构,总参数量高达4
阿里巴巴通义千问团队在NeurIPS 2025获最佳论文奖,论文《Attention Gating Makes Better Foundation Models》提出“滑动门”机制,在标准注意力后添加可学习门控,动态筛选关键头和token参与下游计算。实验证明,1.7B稠密模型性能媲美15B MoE模型。本届大会投稿2万篇,录取率仅25%,竞争激烈,该论文是四篇获奖作品中唯一中国成果。
Qwen2.5-Max是一个大规模的Mixture-of-Expert (MoE)模型,致力于提升模型智能。
Doubao-1.5-pro 是一个高性能的稀疏 MoE 大语言模型,专注于推理性能与模型能力的极致平衡。
万亿参数MoE文本大模型
大规模MoE语言模型,性能媲美七十亿参数模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
PrimeIntellect
INTELLECT-3是一个拥有1060亿参数的混合专家(MoE)模型,通过大规模强化学习训练而成。在数学、编码和推理基准测试中展现出卓越性能,模型、训练框架和环境均以宽松许可协议开源。
bartowski
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
unsloth
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
jackcloudman
Qwen3-Next-80B-A3B-Thinking 是通义千问团队推出的新一代思考型大语言模型,采用创新的混合注意力机制和高稀疏MoE架构,在保持高效推理的同时具备强大的复杂推理能力,原生支持262K上下文长度。
inclusionAI
Ming-flash-omni 预览版是基于 Ling-Flash-2.0 稀疏专家混合(MoE)架构构建的多模态大模型,总参数达100B,每个token仅激活6B参数。该模型在Ming-Omni基础上进行了全面升级,在多模态理解和生成方面有显著提升,特别是在语音识别、图像生成和分割编辑方面表现突出。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
Infinigence
梅格雷斯2-3x7B-A3B是一款设备原生大语言模型,采用混合专家(MoE)架构,结合了MoE的准确性和密集模型的紧凑性优势。该模型在8T标记数据上训练,具备32K上下文长度,未来计划提升推理和代理能力。
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
Ling 2.0是基于MoE架构的大语言模型家族,首个版本Ling-mini-2.0参数规模紧凑但功能强大,在复杂推理和指令遵循方面表现出色,采用1/32激活率的MoE架构,实现卓越性能与高效运行的完美结合。
Kwai-Klear
Klear是由快手Kwai-Klear团队开发的稀疏混合专家(MoE)大语言模型,具备高性能和推理效率的特点。总参数460亿,激活参数仅25亿,在多个能力基准测试中表现出色,为实际应用提供了高效且强大的解决方案。
这是deepcogito的cogito-v2-preview-llama-109B-MoE模型的量化版本,使用llama.cpp进行量化处理,提供多种量化类型以适应不同硬件条件。该模型是一个109B参数的混合专家(MoE)大语言模型,经过优化后可在消费级硬件上运行。
Qwen
Qwen3-30B-A3B-Instruct-2507是Qwen3-30B-A3B非思考模式的更新版本,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面均有显著提升。这是一个305亿参数的大型语言模型,采用MoE架构,激活参数为33亿。
float-trip
Qwen3-14B-Base是通义系列最新一代的大语言模型,提供了一系列全面的密集模型和专家混合(MoE)模型,在训练数据、模型架构和优化技术等方面取得了显著进展。
Mozilla
Qwen3是Qwen系列最新一代的大语言模型,提供了一系列密集和混合专家(MoE)模型。基于广泛的训练,Qwen3在推理、指令遵循、代理能力和多语言支持方面取得了突破性进展。
QuantFactory
Qwen3是通义千问系列大语言模型的最新代际,提供稠密和混合专家(MoE)模型的全面套件。基于大规模训练,Qwen3在推理、指令遵循、智能体能力和多语言支持方面实现了突破性进展。
rednote-hilab
dots.llm1 是一个大规模的 MoE 模型,在 1420 亿总参数中激活 140 亿参数,性能可与最先进的模型相媲美。
prithivMLmods
Qwen3是通义千问系列最新一代大语言模型,提供稠密模型和混合专家(MoE)模型的完整套件。基于大规模训练,Qwen3在推理能力、指令遵循、智能体功能和多语言支持方面实现了突破性进展。
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型与混合专家(MoE)模型组合。基于大规模训练,Qwen3在推理能力、指令遵循、智能体功能及多语言支持方面实现突破性进展。
Qwen3是通义千问系列大语言模型的最新版本,提供了一系列密集型和混合专家(MoE)模型。基于大规模训练,Qwen3在推理、指令遵循、智能体能力和多语言支持方面实现了突破性进展。
Qwen3是通义千问系列大语言模型的最新版本,提供了一系列密集型和混合专家(MoE)模型。基于大规模训练,Qwen3在推理能力、指令遵循、智能体功能和多语言支持方面实现了突破性进展。
MOEX股票与新闻MCP服务器是一个基于Model Context Protocol的接口服务,提供莫斯科交易所股票行情、金融新闻查询及分析功能,支持与大型语言模型集成。