阿里巴巴通义千问大模型在全球开源AI社区中表现突出,累计下载量已突破7亿次,成为最受开发者欢迎的开源模型。2025年12月,其单月下载量甚至超过全球其他主流模型下载量的总和,显示出强劲的增长势头。
阿里巴巴通义千问团队在NeurIPS 2025获最佳论文奖,论文《Attention Gating Makes Better Foundation Models》提出“滑动门”机制,在标准注意力后添加可学习门控,动态筛选关键头和token参与下游计算。实验证明,1.7B稠密模型性能媲美15B MoE模型。本届大会投稿2万篇,录取率仅25%,竞争激烈,该论文是四篇获奖作品中唯一中国成果。
美国Nof1机构举办的首届AI大模型投资比赛落幕,阿里巴巴通义千问Qwen3-Max以22.32%收益率夺冠,展现其在量化交易的领先实力。比赛让六大顶级模型各获1万美元初始资金,在Hyperliquid平台真实交易环境中竞技。
阿里巴巴推出“C计划”首款产品——夸克App对话助手,采用通义千问最新闭源模型,旨在打造年轻用户AI入口,完善阿里C端应用生态闭环。用户可通过首页点击或右滑使用该功能。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通义千问团队开发的多模态视觉语言模型,基于70亿参数规模,专门针对视觉问答任务进行优化训练。该模型能够理解和分析图像内容,并生成准确的自然语言回答。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通义千问团队开发的40亿参数指令微调大语言模型,基于Qwen3架构优化,专门针对对话和指令跟随任务进行训练,具备强大的文本生成和理解能力。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
huynguyendbs
Qwen3-Embedding-8B是阿里巴巴通义千问团队开发的80亿参数文本嵌入模型,基于MLX库优化实现,专门用于句子相似度计算和文本特征提取任务。
ThomasBaruzier
Qwen2.5-72B-Instruct是阿里巴巴通义千问团队开发的大规模语言模型,拥有727亿参数。该模型在知识理解、编码能力、数学推理和多语言支持方面有显著提升,支持长达128K标记的上下文长度,能够生成最多8K标记的内容。