思岚科技CTO 黄珏珅:利用多传感器融合技术解决机器人可靠定位问题

SLAMTEC 2020-07-23

机器人科技slam

1060 字丨阅读本文需 7 分钟


7月22日晚,思岚科技CTO黄珏珅在第三届中国人工智能与机器人开发者大会(CAIRDC)线上论坛【视觉、感知、多传感器融合】上,分享了《如何利用多传感器融合技术解决机器人可靠定位问题》。


黄珏珅认为,要解决机器人的可靠定位,就是要让机器人在未知环境中拥有自主移动的问题。



「在日常生活中,我们对机器人的期望有很多,比如货物搬运、移动销售、购物引导、安保巡逻、家庭清洁……。这样,机器人就必须具备一个共同点,那就是具备【自主移动】的能力,就要解决三大哲学问题,“我是谁?我在哪儿?我要去哪里?”」



机器人如何像人一样,看见“物理”世界呢?如果按照人的逻辑,应该是有一个“camera”来充当TA的眼睛。但是单目摄像头缺乏尺度信息,无法直接用于导航;双目摄像头对环境光比较敏感,无法稳定工作。




| 激光雷达可以直接获取尺度信息,适合后期SLAM。


激光雷达相对摄像头来说,可以直接获取周围的环境、尺度信息,且数据量小,适合后期SLAM。



▲RPLIDAR A3 地下车库采集到的地图信息


| 激光雷达获取的只是一个局部信息,还需SLAM算法辅助


黄珏珅在线上分享中提到:单线雷达目前获取到的只是一个局部的信息,无法解决机器人的“三大问题”。所以,我们还需要SLAM算法的辅助。我们先要了解这样一些名词,比如ICP(Iterative Closest Point)、Particle Filter、Graph SLAM等等。





| SLAM 3.0, 超大场景建图,


我们目前最新的算法SLAM3.0就是采用图优化方式进行构图,能实现十万平米级别的地图构建能力,同时拥有主动式回环闭合纠正能力,能很好的消除长时间运行导致的里程累计误差,成为目前行业中最受欢迎的定位导航方式。



再也不需要面对“能力不够,人力来凑”的尴尬局面了。


183m*110m


200m*180m


相比较粒子滤波每次直接将传感器数据更新进入栅格地图进行增量式构建的做法,SLAM3.0存储地图构建过程中调整了图结构中每个节点的pose和对应的传感器信息以及所有关键点构建的位姿关系图,利用全部的机器人位姿信息和对应传感器数据生成环境地图。


▲ SLAM 3.0 编码了机器人在SLAM过程中的位姿变化拓扑地图,相关的拓扑信息 


当机器人运动到已经探索过的原环境时, SLAM 3.0可依赖内部的拓扑图进行主动式的闭环检测。当发现了新的闭环信息后,SLAM 3.0使用Bundle Adjuestment(BA)等算法对原先的位姿拓扑地图进行修正(即进行图优化),从而能有效的进行闭环后地图的修正,实现更加可靠的环境建图。且在边走边建图的过程中,不会产生拖尾,因为我们会这些因素做滤波处理。




| 多传感器数据融合,锦上添花


但是,有了激光雷达和算法是远远不够的,还需要多传感器的数据进行融合,锦上添花。


传感器收集到的信息进行有效处理和融合,提高机器人更为直观地判断出周围的环境,确保有更多可靠的信息被利用,做出更智能,更类人的判断。完成导航。



在答疑环节的最后,黄珏珅表示依然会看好多传感器对机器人产业的影响,未来自主移动也会越来越“智能”。技术突破上,激光雷达会变得更加小巧。他还表示,传感器之间是融合关系而不是替代关系,将这些技术融合在一起,提供原先单一传感器做不到的效果。





免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:SLAMTEC
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...