阿里巴巴千问Qwen3.5-Max-Preview模型在LMArena盲测榜单中表现突出,以1464分刷新国产模型纪录,并在多项评测中超越GPT5.4、Claude4.5及Grok4.1等海外顶尖模型,标志着中国自研大模型正式跻身全球第一梯队。
阿里巴巴集团辟谣“千问模型核心团队集体离职”及“开源策略调整”传闻,强调大模型研发与服务一切正常,团队架构稳定,AI产品与技术服务运行正常,并重申长期坚持开源策略。
阿里巴巴CEO吴泳铭宣布,林俊旸辞去通义千问相关职务,同时集团成立“基础模型支持小组”,以统一协调大模型研发资源。此次调整旨在优化研发体系,提升效率与协同能力。
阿里巴巴通义千问大模型技术负责人林俊旸近日宣布卸任。这位1993年出生的年轻技术专家,拥有北京大学计算机与语言学复合背景,其跨学科能力曾助力模型在语义理解与长文本处理上表现突出。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
$8
$240
52
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通义千问团队开发的40亿参数指令微调大语言模型,基于Qwen3架构优化,专门针对对话和指令跟随任务进行训练,具备强大的文本生成和理解能力。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
ThomasBaruzier
Qwen2.5-72B-Instruct是阿里巴巴通义千问团队开发的大规模语言模型,拥有727亿参数。该模型在知识理解、编码能力、数学推理和多语言支持方面有显著提升,支持长达128K标记的上下文长度,能够生成最多8K标记的内容。