阿里巴巴通义实验室人事调整,周靖人代管Qwen模型团队,核心成员刘大一恒兼任后训练与Coding负责人,团队直接向周靖人汇报。
阿里通义千问Qwen 3.5系列小模型打破“参数量决定智商”的常规认知。其中仅40亿参数的Qwen 3.5-4B在第三方测试中,与参数量过千亿的GPT-4o同台竞技,表现不落下风甚至略胜一筹。这标志着国产大模型在本地部署和效率优化上取得重要突破,开启“以小博大”的新时代。
阿里巴巴CEO吴泳铭宣布,林俊旸辞去通义千问相关职务,同时集团成立“基础模型支持小组”,以统一协调大模型研发资源。此次调整旨在优化研发体系,提升效率与协同能力。
2026年3月5日,阿里巴巴CEO吴泳铭内部邮件确认,通义实验室核心成员、千问(Qwen)负责人林俊旸已离职。此前一天,林俊旸在社交平台发文告别。离职前夜,其团队刚发布Qwen3.5小模型,获马斯克点赞。
Qwen2.5-Omni 是阿里云通义千问团队开发的端到端多模态模型,支持文本、音频、图像、视频输入。
Wan是阿里巴巴通义实验室开发的先进视觉生成模型,可基于文本、图像等生成视频。
Alibaba
-
输入tokens/百万
输出tokens/百万
上下文长度
$4
$16
1k
$1
$10
256
$6
$24
$2
$20
$8
$240
52
$3.9
$15.2
64
$15.8
$12.7
$0.8
128
$54
$163
noctrex
这是阿里巴巴通义深度研究30B-A3B模型的量化版本,采用MXFP4_MOE量化技术并额外添加imatrix量化,旨在优化模型性能和资源使用效率,适用于文本生成任务。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通义千问团队开发的多模态视觉语言模型,基于70亿参数规模,专门针对视觉问答任务进行优化训练。该模型能够理解和分析图像内容,并生成准确的自然语言回答。
geoffmunn
这是Qwen/Qwen3-4B语言模型的GGUF量化版本,由阿里巴巴通义系列开发的40亿参数大语言模型,专为消费级硬件设计,支持强大推理、智能体工作流和多语言交互。
lmstudio-community
Qwen3-Next-80B-A3B-Instruct是阿里云通义千问团队开发的大规模语言模型,经过MLX框架4位量化优化,专门针对苹果芯片设备进行了性能优化,提供高效的推理能力。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通义千问团队开发的40亿参数指令微调大语言模型,基于Qwen3架构优化,专门针对对话和指令跟随任务进行训练,具备强大的文本生成和理解能力。
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
huynguyendbs
Qwen3-Embedding-8B是阿里巴巴通义千问团队开发的80亿参数文本嵌入模型,基于MLX库优化实现,专门用于句子相似度计算和文本特征提取任务。
Alibaba-NLP
基于ModernBERT预训练架构的英语文本重排序模型,由阿里巴巴通义实验室开发,支持8192 tokens长文本处理。
ThomasBaruzier
Qwen2.5-72B-Instruct是阿里巴巴通义千问团队开发的大规模语言模型,拥有727亿参数。该模型在知识理解、编码能力、数学推理和多语言支持方面有显著提升,支持长达128K标记的上下文长度,能够生成最多8K标记的内容。
ali-vilab
阿里巴巴通义实验室开发的开源视频合成代码库,集成了多种先进的视频生成模型
基于TypeScript的MCP服务器,集成阿里云通义万相的文生图和文生视频API,支持异步任务处理和MCP协议规范