百度发布文心大模型5.0正式版,拥有2.4万亿参数,实现从多模态融合到“原生全模态”的跨越。其采用原生全模态统一建模技术,在统一架构中对文本、图像、视频和音频进行联合训练,区别于行业常见的“后期合成”方案。
百度世界大会发布文心大模型5.0,李彦宏将其定义为“原生全模态模型”,实现文本、图像、声音深度融合协同,突破传统多模态拼接方式,推动国产AI进入新纪元。
百度在2025世界大会上发布文心5.0大模型,参数量达2.4万亿。该模型采用原生全模态技术,能统一处理文本、图像、音频和视频,具备出色的多模态理解、指令遵循、创意写作和智能规划能力,在推理与记忆方面表现突出。
阿里国际数字贸易集团AI团队发布多模态大语言模型Ovis2.5,提供9B和2B两种参数规模。该模型定位经济型视觉推理解决方案,具备原生分辨率感知能力,采用NaViT视觉编码器保留图像细节和全局结构,确保高质量视觉处理。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4