阿里巴巴Qwen团队发布全新图像编辑模型Qwen-Image-Edit-2511,针对AI修图常见的人脸变形和身份丢失问题实现突破,能精准保留人物面部特征。该模型是此前版本的重大升级,支持单人肖像精细编辑和多场景处理。
阿里巴巴开源Fun-Audio-Chat-8B语音大模型,主打超低延迟与自然交互,性能媲美GPT-4o Audio等闭源模型。它具备实时理解和情感感知能力,旨在成为真正的AI语音伙伴。
阿里巴巴计划采购数万颗AMD MI308 AI芯片,以满足其人工智能领域的需求。MI308是一款专为中国市场设计的合规芯片,已获美国出口许可,与英伟达H20同为合规产品。此举凸显阿里对AI技术的重视,但MI308在性价比和安全性方面与H20存在差异。
阿里巴巴云发布两款AI语音模型,Qwen3-TTS-VD-Flash支持用户通过文本指令定制声音,可精确描述声音的情感、节奏等特征,实现个性化语音生成。
Qwen Image AI是阿里巴巴Qwen团队推出的开源图像生成和编辑基础模型,用于准确的图像文本渲染和高级编辑。
Qwen Image是阿里巴巴的免费开源AI图像生成器,擅长在图像中进行文本渲染。
Wan是阿里巴巴通义实验室开发的先进视觉生成模型,可基于文本、图像等生成视频。
MNN 是阿里巴巴开源的轻量级高性能推理引擎,支持多种主流模型格式。
Alibaba
-
Input tokens/M
Output tokens/M
Context Length
$4
$16
1k
$1
$10
256
$2
$20
$6
$24
$8
$240
52
$3.9
$15.2
64
$15.8
$12.7
$0.8
128
$54
$163
pramjana
Qwen3-VL-4B-Instruct是阿里巴巴推出的40亿参数视觉语言模型,基于Qwen3架构开发,支持多模态理解和对话任务。该模型具备强大的图像理解和文本生成能力,能够处理复杂的视觉语言交互场景。
ojus1
Qwen2.5是阿里巴巴推出的新一代大语言模型,在聊天模板方面进行了重要优化,永久禁用了思考状态,解决了多轮聊天模板相关问题,为实验和研究提供了更便捷的体验。
unsloth
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
Qwen3-VL是阿里巴巴推出的最新一代视觉语言模型,在文本理解、视觉感知、空间理解、视频分析和智能体交互等方面均有显著提升。该模型支持多模态输入,具备强大的推理能力和长上下文处理能力。
noctrex
这是阿里巴巴通义深度研究30B-A3B模型的量化版本,采用MXFP4_MOE量化技术并额外添加imatrix量化,旨在优化模型性能和资源使用效率,适用于文本生成任务。
Qwen
Qwen3-VL是阿里巴巴推出的最新一代视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力,支持长上下文处理和视频理解,提供指令优化版本。
geoffmunn
这是阿里巴巴Qwen系列80亿参数大语言模型的GGUF量化版本,专为高级推理、智能体行为和多语言任务设计,可与llama.cpp及兼容工具配合使用。
DevQuasar
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通义千问团队开发的多模态视觉语言模型,基于70亿参数规模,专门针对视觉问答任务进行优化训练。该模型能够理解和分析图像内容,并生成准确的自然语言回答。
这是Qwen/Qwen3-4B语言模型的GGUF量化版本,由阿里巴巴通义系列开发的40亿参数大语言模型,专为消费级硬件设计,支持强大推理、智能体工作流和多语言交互。
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,采用优化的Transformer架构,支持多模态输入(文本和图像),适用于多种AI应用场景。该模型通过TensorRT Model Optimizer进行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用优化的Transformer架构,对权重和激活进行FP4量化,适合用于AI智能体系统、聊天机器人、RAG系统等AI应用。
这是NVIDIA对阿里巴巴Qwen3-14B模型进行FP8量化后的版本,采用优化的Transformer架构,支持131K上下文长度,适用于多种AI应用场景。
NVIDIA Qwen3-14B FP4模型是阿里巴巴Qwen3-14B模型的量化版本,采用FP4数据类型进行优化,通过TensorRT-LLM进行高效推理。该模型专为NVIDIA GPU加速系统设计,适用于AI Agent系统、聊天机器人、RAG系统等多种AI应用场景,支持全球范围内的商业和非商业使用。
NVIDIA Qwen3-8B FP8 是阿里巴巴Qwen3-8B模型的量化版本,采用优化的Transformer架构,属于自回归语言模型。该模型通过FP8量化技术优化,可在NVIDIA GPU上实现高效推理,支持商业和非商业用途。
NVIDIA Qwen3-8B FP4 模型是阿里巴巴Qwen3-8B模型的量化版本,采用优化的Transformer架构的自回归语言模型。该模型使用FP4量化技术,在保持性能的同时显著减少内存占用和计算需求,适用于AI智能体系统、聊天机器人、RAG系统等应用场景。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通义千问团队开发的40亿参数指令微调大语言模型,基于Qwen3架构优化,专门针对对话和指令跟随任务进行训练,具备强大的文本生成和理解能力。
lmstudio-community
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通义千问团队推出的300亿参数大语言模型,专门针对指令跟随任务进行了优化。该模型支持文本生成、对话交互等多种自然语言处理任务,并通过LM Studio社区模型计划向开发者开放使用。
mlx-community
这是Qwen3-235B-A22B-Thinking-2507模型的3位量化版本,专为MLX框架优化转换。原模型是阿里巴巴Qwen团队开发的大型语言模型,具备2350亿参数规模,支持思维链推理能力。