英伟达研究团队于2026年4月16日正式发布了3D 场景生成系统 Lyra2.0,该技术旨在通过单张照片构建大规模、高连贯性的虚拟环境,攻克了长距离相机路径下的图像失真难题。在具身智能训练需求激增的背景下,Lyra2.0的问世标志着 AI 在3D 空间理解与实时环境模拟领域取得重大突破。
技术层面,Lyra2.0能够利用单张照片生成延伸范围达90米的3D 环境。针对传统视频模型因“遗忘”导致的空间失真与误差累积问题,研究人员采用了双重创新策略:系统不仅实时存储每一帧的3D 几何信息,确保相机重回旧位时环境的一致性,还在训练中引入带有缺陷的输出数据,使模型具备自我纠偏能力。基准测试结果显示,Lyra2.0在图像质量与相机控制等维度均优于 GEN3C、Yume-1.5等六个竞争对手,且其快速版本的生成效率提升了13倍。
目前,Lyra2.0已实现与 Nvidia Isaac Sim 等物理引擎的无缝衔接,生成的3D 场景可直接导出为网格模型。这一闭环流程使得机器人能够在完全由 AI 生成的环境中进行高效仿真训练,极大降低了对现实世界大规模3D 数据采集的依赖。尽管该系统目前仍局限于静态场景,但其对3D 生成规模与稳定性的提升,已然为自动驾驶及通用机器人(AGI)的物理感知进化提供了更具想象力的基础设施支撑。


