英伟达在CES 2026上推出开源AI平台Alpamayo,专为实体机器人和自动驾驶汽车设计,旨在提升复杂场景下的智能决策能力。CEO黄仁勋称其标志着机器在现实世界中理解、推理与行动的“ChatGPT时刻”。平台核心为拥有100亿参数的Alpamayo1模型。
国产大模型MiniMax开源M2.1,以100亿参数稀疏架构在多语言编程、代码生成与工具调用上实现突破,在权威基准测试中超越谷歌、Anthropic等闭源旗舰模型,标志着开源编码模型性能进入新阶段。
MiniMax发布新一代开源推理模型M2,专攻智能Agent应用。采用混合专家架构,总参数量2300亿,每次推理仅激活100亿参数,实现每秒100个token的高输出速度,在实时交互场景中优势显著。
蚂蚁百灵团队开源高性能思考模型Ring-flash-2.0,基于Ling-flash-2.0-base深度优化。该模型总参数达100亿,推理时仅激活6.1亿参数,通过高效激活机制实现强大计算能力并显著节省资源。在多项高难度基准测试中表现优异,标志着人工智能领域的重要进展。
Google
$0.7
Input tokens/M
$2.8
Output tokens/M
1k
Context Length
Alibaba
$4
$16
$1
$10
256
$2
$20
-
$6
$24
Moonshot
Baidu
32
Xai
$1.4
$10.5
Tencent
Deepseek
$12
128
Openai
$0.4
$0.75
64
$0.63
$3.15
131
ai-sage
GigaChat3-10B-A1.8B是GigaChat系列的对话模型,基于混合专家(MoE)架构,共有100亿参数,其中18亿为活跃参数。该模型采用多头潜在注意力和多令牌预测技术,支持25.6万令牌的长上下文,在多语言对话和推理任务中表现出色。
GigaChat3-10B-A1.8B-base是GigaChat系列的基础预训练模型,采用混合专家(MoE)架构,总参数100亿,活跃参数18亿。模型集成了多头潜在注意力(MLA)和多令牌预测(MTP)技术,在推理时具备高吞吐量优势。
unsloth
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
redponike
MiniMax-M2是一款专为高效编码和智能体工作流打造的混合专家模型,具备2300亿总参数和100亿激活参数。该模型在编码和智能体任务中表现卓越,同时具有低延迟、低成本和高吞吐量的特点,能有效提升工作效率。
bullerwins
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家(MoE)模型。它拥有2300亿总参数,仅激活100亿参数,在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
MiniMaxAI
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的'迷你'模型,采用混合专家架构,总参数2300亿,激活参数100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
inclusionAI
Ring-mini-2.0是基于Ling 2.0架构深度优化的高性能推理型MoE模型,仅有160亿总参数和14亿激活参数,却实现了与100亿规模以下密集模型相当的综合推理能力。在逻辑推理、代码生成和数学任务方面表现出色,支持12.8万长上下文处理和每秒300+令牌的高速生成。
zai-org
GLM-4.1V-9B-Thinking是基于GLM-4-9B-0414基础模型的开源视觉语言模型,通过引入'思维范式'和强化学习显著提升了模型性能,在100亿参数的VLMs中达到了领先水平,在18项基准任务中与甚至超越了720亿参数的Qwen-2.5-VL-72B。
Freepik
F Lite是由Freepik与Fal联合开发的100亿参数扩散模型,专注于生成高质量纹理图像,训练数据全部为版权合规且适合工作环境的内容。
F Lite是由Freepik与Fal联合研发的100亿参数扩散模型,训练数据完全采用版权合规且适合工作场景的内容
Hibernates
Hiber-Multi-10B-Instruct 是一个基于 Transformer 架构的先进多语言大模型,支持多种语言,具有100亿参数,适用于文本生成任务。
cortexso
Falcon3-10B-Instruct是Falcon3系列的开源基础模型,拥有100亿参数,专注于高质量指令跟随任务,支持多语言处理,上下文长度可达32K tokens。
01-ai
Yi-Coder是一系列开源代码语言模型,在不足100亿参数的情况下实现了最先进的编码性能。
Yi-Coder 是一个开源代码语言模型系列,在参数规模小于100亿的情况下提供最先进的编码性能。
CodeGeeX4-ALL-9B 是基于 GLM-4-9B 持续训练的多语言代码生成模型,是 CodeGeeX4 模型系列的开源版本。该模型在参数少于100亿的代码生成模型中表现最强,支持代码补全、代码解释器、网络搜索、函数调用、仓库级代码问答等全面功能,在推理速度和模型性能之间达到最佳平衡。
CodeGeeX4是基于GLM-4-9B持续训练的多语言代码生成模型,是目前参数少于100亿的最强大代码生成模型。它支持代码补全、代码生成、代码解释、网络搜索、函数调用、仓库级代码问答等综合功能,在推理速度和模型性能方面达到了最佳平衡。
CogVLM是一个强大的开源视觉语言模型,拥有100亿视觉参数和70亿语言参数,在10个经典跨模态基准测试上取得了SOTA性能,在多个视觉语言任务中表现优异。