近日,阿里国际正式发布了其新一代多模态大模型 Ovis2.5,并对外开源。这款模型专注于原生分辨率视觉感知、深度推理以及高性价比的场景设计,旨在进一步提升人工智能的应用能力。Ovis2.5在主流多模态评测套件 OpenCompass 上的综合得分相比前一版本 Ovis2有了显著提升,继续在同类开源模型中保持 SOTA(最先进技术)水平。

image.png

此次发布的 Ovis2.5包含两个不同参数规模的版本。首先是 Ovis2.5-9B,这一版本在 OpenCompass 评测中获得了78.3的高分,超越了许多参数量更大的模型,并在40B 以下参数规模的开源模型中名列第一。其次,Ovis2.5-2B 的综合得分为73.9,延续了 Ovis 系列 “小身板、大能量” 的理念,特别适合端侧及资源受限的应用场景。

在 Ovis2.5的整体架构上,官方表示进行了系统性创新,主要体现在模型架构、训练策略与数据工程三个方面。模型架构方面,Ovis2.5延续了系列创新的结构化嵌入对齐设计,由三大核心组件构成:动态分辨率的视觉特征提取、视觉词表模块实现视觉与文本的结构对齐,以及以 Qwen3为基础的强大语言处理能力。

在训练策略上,Ovis2.5采用了更精细的五阶段训练方案,包括基础的视觉预训练、多模态预训练以及大规模的指令微调等多个步骤。同时,通过 DPO 和 GRPO 等算法加强偏好对齐和推理能力,有效提升了模型的性能。此外,模型的训练速度实现了3到4倍的端到端加速。

数据工程方面,Ovis2.5的数据量相比 Ovis2增加了50%,重点聚焦于视觉推理、图表、OCR(光学字符识别)和 Grounding 等关键领域。特别是合成了大量与 Qwen3深度适配的 “思考” 数据,极大地激发了模型的反思与推理潜能。

Ovis2.5的代码和模型均已在 GitHub 和 Hugging Face 等平台上线,用户可以通过这些平台获取相关资源,进一步探索其应用潜力。

代码:https://github.com/AIDC-AI/Ovis

模型: https://huggingface.co/AIDC-AI/

划重点:

🌟 Ovis2.5在 OpenCompass 评测中取得78.3的综合得分,继续保持 SOTA 水平。  

🔧 包含两个版本,Ovis2.5-9B 适合大规模应用,Ovis2.5-2B 则专注于资源受限场景。  

📊 采用创新架构和训练策略,数据量增加50%,聚焦视觉推理等关键领域。