赛道 | 深兰科学院-上海交大研究成果获智能交通顶刊TITS发表

AI世界 2021-02-22

人工智能置信度

1262 字丨阅读本文需 4 分钟

农历牛年伊始,深兰科学院便传来捷报,与上海交通大学王景川、王贺升团队联合撰写的论文《Unsupervised Monocular Visual Odometry Based on Confidence Evaluation》(DOI:10.1109/TITS.2021.3053412,《基于置信度评估的无监督单目视觉里程计方案》),被国际顶级期刊IEEE Transactions on Intelligent Transportation Systems(TITS)录用。

IEEE TITS是智能交通领域的顶级学术期刊,最新影响因子6.319。该期刊对论文的理论与应用贡献都有很高的要求,致力于用人工智能技术解决交通场景下的实际问题。
深兰科学院于2019年与上海交通大学成立了人工智能联合实验室,为人工智能理论研究与应用发展奠定了坚实的科研基础,已多次在国际顶级学术期刊上发表自动驾驶、机器人领域相关论文。同时,深兰科学院始终厚植科研沃土,已在CVPR、ICCV、ECCV、NeurIPS、KDD等多个人工智能国际顶会上拔得头筹。
本文联合作者上海交通大学王景川、王贺升团队,长期致力于视觉伺服、移动机器人定位导航方面的研究工作,近年来主持多项国家科技型研发项目,并获上海市技术发明奖一等奖等多个重量级奖项。
论文概述
随着对无人车相关技术研究的迅速发展,如何在未知的复杂室外场景下进行高精度定位,已然成为一个研究热点。
单目视觉里程计是其中一种成本较低,应用范围较广的定位手段。其主要任务是从视觉传感器获取的单目图像序列中解算出相对位姿变换,进而增量式地重建运动轨迹。传统方法的视觉里程计通过多视图几何原理求解位姿,对相机参数和环境变化较为敏感,且流程复杂。近年来深度学习技术的快速发展为视觉里程计提供了新的思路,可以实现端到端的位姿估计。
基于深度学习方法的视觉里程计鲁棒性较高,但仍存在两个问题:一是无法很好地处理环境中的运动物体、遮挡问题以及低纹理或高度相似的区域;二是端到端的流程使得位姿估计误差难以修正,累积误差极大影响了定位精度。
针对这两个问题,该论文成果基于置信度评估的思想,分别提出了两个改进方案。

一是对输入图像的置信度评估。设计了一种基于图像区域置信度估计的单目视觉里程计方案,能够对关联图像中按估计的位姿变换关系计算的几何对应区域进行相对相似性度量,并将其作为输入图像各个像素的置信度,用于对视觉重建损失函数和结构相似损失函数进行加权来训练网络,提高模型的精度和鲁棒性。该方案创新性地基于几何约束来度量输入图像的各像素对视觉重建的置信度,具有一定的可解释性;而且方案的整体设计从图像区域而不是单个像素出发,有助于应对图像中大范围的异常情况。例如:较大或较近的运动物体,低纹理的大片天空,高度相似的大片草地。总的来说,本方案通过在视觉里程计中设计了一种全新的对输入图像进行置信度估计的方法,有效提高了视觉里程计的精度和鲁棒性。

二是对输出位姿的置信度评估。设计了一种新的通过对输出位姿进行置信度估计进而实现局部位姿优化的方案。该方案利用轨迹的几何一致性对输出位姿的置信度进行度量,并据此设计了一个基于注意力机制的神经网络,能输出迭代优化后的位姿估计,调整位姿估计误差分布,有效提高视觉里程计精度。且该方案可优化的位姿估计范围是可以自定义的,同时可以很方便地与已有的无监督或有监督视觉里程计方案结合,可拓展性高。

深兰科技自动驾驶和智能机器人产品已在环卫、安防、零售、服务等多个领域广泛落地应用,此次提出的“基于置信度评估的无监督单目视觉里程计方案”,未来将被用于进一步提升并优化相关产品的性能,持续推进“人工智能,服务民生”的理念。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:AI世界
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...