在 DeepSeek-V4发布并引发行业震动仅五天后,DeepSeek 官方正式开启多模态识图功能的灰度测试,标志着其多模态能力进入实质性落地阶段。此次更新在移动端与网页版输入栏中新增了“识图模式”入口,并显著标注“图片理解功能内测中”,完成了从纯文本/代码向视觉交互的重要跨越。

实测数据显示,DeepSeek 在基础视觉理解与画面描述方面表现优异。在识别复杂人物、环境构图及摄影细节时,能产出极高还原度的描述文本;在开启“思考模式”后,模型展现了深度的逻辑推理能力,可根据文物视觉特征准确推导其艺术风格与历史背景。此外,其对图片中文字信息的提取与场景判断亦达到了行业主流水准。
然而,在面对极端视觉挑战时,该模块仍存在优化空间。测试表明,模型在处理碎块化、反色等抗干扰图像时识别率受限;在元素计数与复杂图形逻辑推理任务中,虽然展现了自博弈式的推理尝试,但在准确率与响应效率上仍有提升余地。此外,其对极新产品信息的覆盖仍受限于现有知识库的更新周期。
行业分析指出,该功能目前更接近于挂载在主干模型上的视觉理解模块,旨在通过灰度测试验证多模态链路。随着 DeepSeek 视觉补丁的快速迭代,国产大模型在原生多模态赛道的竞争重心正从“参数规模”向“全场景感知”转型。此次内测不仅补齐了 DeepSeek 的核心功能短板,也预示着其原生多模态大招已进入最后筹备期。


