DeepMind项目MegaSaM :输入普通视频即可预估相机视角和景深,构建视频场景
近日,谷歌深度学习团队和多所大学的研究人员联合发布了一项名为 “MegaSaM” 的新系统,该系统能够从普通的动态视频中快速、准确地估计相机参数和深度图。这一技术的问世,将为我们在日常生活中录制的视频带来更多的可能性,特别是在动态场景的捕捉与分析方面。传统的运动结构重建(Structure from Motion,SfM)和单目同步定位与地图构建(SLAM)技术,通常需要输入静态场景的视频,并且对视差的要求较高。面对动态场景,这些方法的表现往往不尽如人意,因为在缺乏静态背景的情况下