腾讯混元团队开源混元图像3.0图生图模型,拥有800亿参数,采用混合专家架构,在全球影像编辑榜单中位列第七。其核心突破在于“先思考,后编辑”的多模态架构,成为当前全球最强的开源图生图模型。
月之暗面计划于2026年第一季度推出多模态模型K2.1/K2.5,该模型基于其万亿参数开源模型Kimi K2升级,旨在提升多模态处理与智能体能力。Kimi K2自2025年7月发布后,凭借混合专家架构在代码生成等领域表现出色。
YuanLab.ai发布开源多模态大模型Yuan3.0Flash,参数规模达40B,采用稀疏混合专家架构,推理时仅激活约3.7B参数,显著提升效率。模型提供16bit与4bit权重、技术报告及训练方法,支持二次开发和行业定制,推动AI技术普及。
英伟达与Mistral AI合作,加速开发开放源模型Mistral 3系列。该系列为多语言、多模态模型,采用混合专家架构,针对英伟达平台优化,旨在提升任务处理效率。
高效的开源专家混合视觉语言模型,具备多模态推理能力。
多模态原生混合专家模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
-
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$6
$24
$2
$20
$8
$240
52
NyxKrage
Moondream 3 Preview HF是基于HuggingFace Transformers架构规范对Moondream 3 (Preview)模型的重新实现,使其能够与Hugging Face生态系统完全兼容。这是一个多模态视觉语言模型,采用专家混合(MoE)文本主干,约90亿参数,20亿活跃参数。
HIT-TMG
Uni-MoE 2.0-Omni 是荔枝科技(Lychee)推出的完全开源全模态模型,采用全模态 3D RoPE 和动态容量专家混合架构,显著提升了以语言为中心的多模态理解、推理和生成能力。该版本集成了全模态理解以及音频和图像生成能力。
unsloth
Qwen3-VL是迄今为止Qwen系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面都进行了全面升级。该模型采用混合专家(MoE)架构,提供卓越的多模态处理能力。
inclusionAI
Ming-flash-omni 预览版是基于 Ling-Flash-2.0 稀疏专家混合(MoE)架构构建的多模态大模型,总参数达100B,每个token仅激活6B参数。该模型在Ming-Omni基础上进行了全面升级,在多模态理解和生成方面有显著提升,特别是在语音识别、图像生成和分割编辑方面表现突出。
RedHatAI
Llama 4系列原生多模态AI模型,支持文本和图像理解,采用混合专家架构,适用于商业和研究场景。
Llama 4 Maverick是Meta推出的170亿参数混合专家架构(MoE)多模态模型,支持12种语言和图像理解,适用于商业与研究用途。
Llama-4-Scout是Meta推出的Llama 4系列模型之一,采用混合专家(MoE)架构,是原生多模态AI模型,支持文本和图像输入,在多语言文本理解和视觉任务方面表现出色。该模型具有17B参数,16个专家,专为商业和研究用途设计。
fahadh4ilyas
Llama 4系列是Meta推出的原生多模态AI模型,采用混合专家架构,支持文本和图像交互,在多种语言和视觉任务中表现卓越。
Llama 4系列是Meta推出的原生多模态AI模型,支持文本和图像交互,采用混合专家架构,在文本和图像理解方面表现卓越。
hirundo-io
Llama 4 Scout是Meta推出的原生多模态AI模型,支持多语言文本和图像理解,采用混合专家架构,在文本和图像理解方面具有行业领先性能。
shadowlilac
Llama 4 Scout是Meta推出的170亿参数混合专家架构(MoE)多模态模型,支持12种语言和图像理解,采用topk=4专家动态融合机制。
bnb-community
Llama 4系列是Meta开发的多模态AI模型,支持文本与图像交互,采用混合专家架构(MoE),在文本和图像理解领域具有领先性能。
Llama 4 Scout是Meta推出的170亿参数混合专家架构多模态模型,支持12种语言和图像理解
Llama 4 Scout是Meta开发的多模态混合专家模型,支持12种语言和图像理解,具有170亿激活参数和10M上下文长度。
Llama 4 Scout是Meta开发的多模态大语言模型,采用混合专家架构,支持文本和图像理解,参数规模170亿(激活)/1090亿(总计)。
Llama 4 Scout是Meta推出的170亿参数多模态AI模型,采用混合专家架构,支持12种语言和图像理解。
chutesai
Llama 4 Maverick是Meta推出的原生多模态AI模型,采用混合专家架构,支持文本和图像输入,输出多语言文本和代码。
Undi95
Llama 4 Maverick 是 Meta 发布的多模态 AI 模型,支持文本与图像理解,采用混合专家架构(MoE),在多语言文本和代码生成任务中表现优异。
Llama 4 Scout是Meta推出的17B参数/16专家混合的多模态AI模型,支持12种语言和图像理解,具有行业领先性能。
meta-llama
Llama 4 Maverick是Meta开发的多模态AI模型,采用混合专家架构,支持文本和图像理解,具有170亿激活参数和4000亿总参数。