蚂蚁阿福成为央视健康生活合作伙伴,作为健康AI应用,日解答健康咨询1000万次。已连接全国5000家医院、30万医生,提供从问答到就医的全链路服务。六位院士领衔千位名医在App开设“AI分身”,助力农村用户便捷获取专业医疗资源。
2026年春节,阿里以“30亿免单”活动打响AI红包大战,将AI技术融入生活场景,直指腾讯与字节跳动的市场。通过千问APP送出超百万单奶茶,展现了阿里生态协同与闭环优势,实现降维打击。
春节红包大战升级为AI入口争夺战,各大公司通过高薪招聘AI人才,如阿里通义千问为算法工程师开出天价年薪,展现大模型时代对核心技术的激烈竞争。
微信被指限制阿里千问及腾讯元宝的口令复制功能,疑因阿里千问“春节30亿免单”活动火爆,其分享口令在微信内受限,腾讯自家元宝App也面临同样问题。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
prithivMLmods
多拉多网络冲浪工具扩展版是基于通义千问3-4B微调的函数调用和智能推理模型,专为网络搜索编排、工具增强推理和动态问题解决而设计。它在智能决策、工具选择和结构化执行流程方面表现出色。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
ValiantLabs
埃斯珀 3 是基于千问 3 构建的编码、架构和开发运维推理专家模型,适用于本地和服务器部署。
埃斯佩尔3是基于千问3构建的代码、架构和开发运维推理专家模型,适用于本地和服务器推理。
DavidAU
基于千问3-30B-A3B的混合专家模型微调版本,激活专家数提升至16,上下文窗口扩展至128k,适合复杂推理场景
Qwen
Qwen3-32B-AWQ是通义千问系列最新一代32.8B参数的大语言模型,采用AWQ 4-bit量化技术,支持思维与非思维模式切换,具备卓越的推理、指令遵循和智能体能力。
Chun121
基于千问3-4B模型微调的角色扮演对话模型,擅长生成符合角色特征的连贯对话
Cylingo
赛灵格集团推出的心理健康行业首个基础大模型,基于千问3-14B的强大能力,在心理健康领域百万级多场景数据上进行了深度微调。
通义千问3 0.6B的量化版本,适用于文本生成任务,支持32k上下文长度和多语言处理。
Qwen3-14B-Base是通义千问系列最新一代大语言模型,提供148亿参数的稠密模型,支持32k上下文长度,覆盖119种语言。
Qwen3-4B-Base是通义千问系列最新一代40亿参数量的预训练语言模型,支持32k上下文长度和多语言处理。
Qwen3-32B-FP8是通义千问系列最新一代32.8B参数大语言模型,支持思维与非思维模式切换,具备卓越的推理、指令遵循和智能体能力。
Qwen3是通义千问系列大语言模型的最新版本,提供32.8B参数的密集模型,在推理能力、指令遵循、智能体功能和多语言支持方面实现突破性进展。
Qwen3是通义千问系列最新一代6亿参数大语言模型,支持32k上下文长度,覆盖119种语言
通义千问系列最新一代大语言模型,提供148亿参数的预训练基础模型,支持32k超长上下文理解
Qwen3-1.7B是通义千问系列最新一代17亿参数基础语言模型,采用三阶段预训练体系,支持32k上下文长度。
Qwen3-4B-Base是通义千问系列最新一代40亿参数大语言模型,基于36万亿token的多语言数据预训练,支持32k上下文长度。
Qwen3是通义千问系列最新一代大语言模型,提供完整的稠密模型与混合专家(MoE)模型体系,覆盖119种语言的36万亿token预训练数据。