广汽发布星河智舱ADiGO Intelligence架构,深度融合阿里通义千问大模型,旨在革新智能座舱体验。该架构基于超375万辆车的真实数据,通过多模态感知、情感化交互与场景引擎三大核心,实现1.6秒内快速响应、超95%识别准确率,并能主动提供场景化服务,推动人车交互向更智能、情感化方向发展。
阿里巴巴秘密研发的多模态大模型HappyHorse在国际评测中登顶,以1332分刷新全球视频生成Elo纪录,带动其港股早盘上涨近3%。
阿里巴巴宣布组织架构调整,核心是加速AI建设。CEO吴泳铭通过内部信宣布,设立集团技术委员会并升级业务部门,开启AI全面加速期。最受关注的是全球顶尖科学家李飞飞加盟,出任阿里云CTO,全面负责阿里云技术及AI云基础设施建设。
阿里通义实验室推出FIPO算法,突破传统强化学习在复杂逻辑推理中的瓶颈。该算法通过Future-KL机制,精准识别关键推理步骤,有效解决模型在数学等复杂问题中推理长度停滞的问题,显著提升推理准确率和效率。
阿里云推出的大型音频语言模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
ojus1
Qwen2.5是阿里巴巴推出的新一代大语言模型,在聊天模板方面进行了重要优化,永久禁用了思考状态,解决了多轮聊天模板相关问题,为实验和研究提供了更便捷的体验。
NexaAI
Qwen3-VL-8B-Thinking是阿里云Qwen团队开发的80亿参数多模态大语言模型,专为深度多模态推理设计,支持视觉理解、长上下文处理和结构化思维链生成,在复杂推理任务中表现出色。
Qwen3-VL-4B-Instruct是阿里云Qwen团队推出的40亿参数指令调优多模态大语言模型,专为高通NPU优化,融合强大的视觉语言理解能力与对话微调功能,适用于聊天推理、文档分析和视觉对话等实际应用场景。
geoffmunn
这是阿里巴巴Qwen系列80亿参数大语言模型的GGUF量化版本,专为高级推理、智能体行为和多语言任务设计,可与llama.cpp及兼容工具配合使用。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
这是Qwen/Qwen3-4B语言模型的GGUF量化版本,由阿里巴巴通义系列开发的40亿参数大语言模型,专为消费级硬件设计,支持强大推理、智能体工作流和多语言交互。
lmstudio-community
Qwen3-Next-80B-A3B-Instruct是阿里云通义千问团队开发的大规模语言模型,经过MLX框架4位量化优化,专门针对苹果芯片设备进行了性能优化,提供高效的推理能力。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通义千问团队开发的40亿参数指令微调大语言模型,基于Qwen3架构优化,专门针对对话和指令跟随任务进行训练,具备强大的文本生成和理解能力。
Qwen3-4B-Instruct-2507是阿里云推出的40亿参数大语言模型,基于Unsloth Dynamic 2.0量化技术,在通用能力、长尾知识覆盖、用户偏好对齐和长上下文理解等方面都有显著提升。
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
mlx-community
这是Qwen3-235B-A22B-Thinking-2507模型的3位量化版本,专为MLX框架优化转换。原模型是阿里巴巴Qwen团队开发的大型语言模型,具备2350亿参数规模,支持思维链推理能力。
nvidia
NVIDIA Qwen3-30B-A3B FP4模型是阿里云Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,是自回归语言模型。该模型使用TensorRT Model Optimizer进行FP4量化,将每个参数的比特数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的性能表现。
NVIDIA Qwen3-30B-A3B FP4是阿里巴巴Qwen3-30B-A3B模型的量化版本,采用优化的Transformer架构,通过FP4量化技术将模型大小减少约3.3倍,同时保持较好的性能表现。该模型支持商业和非商业用途,适用于AI代理系统、聊天机器人、RAG系统等应用场景。
NVIDIA Qwen3-235B-A22B FP4模型是阿里云Qwen3-235B-A22B模型的量化版本,采用优化的Transformer架构,是一种自回归语言模型。该模型通过FP4量化技术将参数从16位减少到4位,使磁盘大小和GPU内存需求减少约3.3倍,同时保持较高的准确性和性能。
onnx-community
Qwen3-1.7B 是阿里云推出的1.7B参数规模的开源大语言模型,基于Transformer架构,支持多种自然语言处理任务。
Qwen3是阿里云开发的最新大语言模型系列,支持思维模式与非思维模式动态切换,在推理、多语言支持和智能体能力方面表现突出。
Qwen3-0.6B是阿里云开发的0.6B参数规模的大语言模型,属于Qwen3系列的最新成员,支持100多种语言,具备强大的推理、指令遵循和多语言能力。
Qwen3是阿里云开发的最新大语言模型,具有强大的推理、指令遵循和多语言支持能力,支持思考与非思考模式切换。
Qwen3是阿里云开发的大规模语言模型系列的最新版本,具有卓越的推理、指令跟随和多语言支持能力。32B版本是其密集模型之一,支持在思考与非思考模式间切换。