【SLAM】开源 | 港科大&腾讯YouTu—非光度损失的自监督运动定位估计算法

获取完整原文和代码,公众号回复:1902.09103

论文地址: https://arxiv.org/abs/1902.09103v1.pdf

代码: 公众号回复:1902.09103

来源: 香港科技大学, 腾讯YouTu实验室

论文名称:Beyond Photometric Loss for Self-Supervised Ego-Motion Estimation

原文作者:Tianwei Shen

内容提要

精确的相对姿势是视觉里程计(VO)和SLAM的关键组成部分之一。近年来,合优化相对姿态和目标图像深度的自监督学习框架引起了社会各界的关注。以前的工作依赖于相邻帧之间的深度和姿态产生的光度误差,这在现实场景中由于反射表面和遮挡造成了很大的系统误差。在本文中,我们在一个自监督的框架中引入了受极几何约束的匹配损耗,从而弥补了几何损耗和光度损耗之间的差距。在KITTI数据集上进行评估,我们的方法大大优于最新的无监督自我运动估计方法。

主要框架及实验结果

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。