MIT搞了个进取型机器人!能研究学习对象操纵的基础

康奈尔大学 2019-10-24

机器人科普

1983 字丨阅读本文需 4 分钟

  麻省理工学院的研究人员已经汇编了一个数据集,该数据集捕获了物理上推动数百个不同对象的系统的详细行为。研究人员可以使用数据集(同类中规模最大,种类最多的)训练机器人,以“学习”推动动力学,这对于许多复杂的对象操纵任务都是至关重要的,包括重新定向和检查对象以及整洁的场景。

  为了捕获数据,研究人员设计了一个自动化系统,该系统包括具有精确控制的工业机械手,3D运动跟踪系统,深度和传统相机以及将所有东西缝合在一起的软件。手臂推着模块化的物体,可以调整它们的重量,形状和质量分布。对于每次推动,系统都会捕获这些特征如何影响机器人的推动。

  名为“ Omnipush”的数据集包含250个对象的250个不同的推送,总计大约62,500次唯一推送。例如,研究人员已经在使用它来构建模型,以帮助机器人预测物体在被推动时会降落在何处。

  这一篇描述Omnipush的论文的作者,机械工程系(MechE)的研究生Maria Bauza说:“我们需要大量丰富的数据来确保我们的机器人能够学习。” 和系统。“在这里,我们正在从真实的机器人系统中收集数据,并且对象足够多以捕获丰富的推动现象。这对于帮助机器人理解推动的工作原理并将该信息转换为其他类似现实世界中物体的信息非常重要。”

  加入Bauza的论文包括:计算机科学与人工智能实验室和电气工程与计算机科学系(EECS)的研究生Ferran Alet和Lin Yen-Chen Lin;工程学院卓越教学教授Tomas Lozano-Perez;Leslie P. Kaelbling,松下计算机科学与工程系教授;EECS助理教授Phillip Isola;以及MechE副教授Alberto Rodriguez。

  为什么要专注于推动行为?Rodriguez解释说,建模涉及物体和表面之间摩擦的推动动力学,对于更高级别的机器人任务至关重要。考虑一下可以玩Jenga的视觉和技术上令人印象深刻的机器人,这是Rodriguez最近合作设计的。罗德里格斯说:“机器人正在执行一项复杂的任务,但驱动该任务机制的核心仍然是推动受例如块之间的摩擦影响的物体。”

  Omnipush建立在Rodriguez,Bauza和其他研究人员在操纵与机制实验室(MCube)中建立的类似数据集的基础上,该数据集仅捕获了10个对象上的推入数据。在2016年将数据集公开后,他们收集了研究人员的反馈。其中一个抱怨是认为缺乏对象多样性:在数据集上受过训练的机器人努力地将信息推广到新的对象上,而且也没有记录,图像对于计算机视觉,预测和其他任务很重要。

  因此如今,对于他们的新数据集,研究人员利用手臂精确控制推进器(基本上是垂直钢棒)的速度和位置。当手臂推动物体时,他们用已在,虚拟现实以及研究中使用的“ Vicon”运动跟踪系统跟随物体,还有一个RGB-D摄像机,可将深度信息添加到捕获的视频中。

  研究的关键是构建模块化对象。由铝制成的均匀的中央部件看起来像四角星,重约100克,每个中心部分的中心和点都包含标记,因此Vicon系统可以在1毫米内检测到其姿势。

  四个形状(凹形,三角形,矩形和圆形)的较小块可以磁连接到中心块的任何一侧。每块重量在31到94克之间,但是额外的重量(从60到150克不等)可以掉入这些块的小孔中。所有类似拼图的物体在水平和垂直方向都对齐,这有助于模拟形状和质量分布相同的单个物体的摩擦。不同侧面,重量和质量分布的所有组合增加了250个唯一对象。

  每次推动时,手臂会自动移动到距对象几厘米的随机位置。然后,它选择一个随机方向并将对象推一秒钟。从停止的地方开始,然后选择另一个随机方向,并重复该过程250次。每次推送都会记录对象和RGB-D视频的姿势,这些姿势可用于各种视频预测目的。每天花费12个小时来收集数据,耗时两个星期,总计超过150个小时。仅在手动重新配置对象时才需要人工干预。

  这些对象并没有专门模仿任何现实生活中的物品。取而代之的是,它们旨在捕获现实世界对象的“运动学”和“质量非对称性”的多样性,从而对现实世界对象的运动进行建模。然后,机器人可以将质量分布不均匀的Omnipush对象的物理模型外推到重量分布不均相似的任何现实世界对象。

  “想象一下用四只腿推动桌子,其中最大的重量超过了一只腿。当您推动桌子时,您会看到它在沉重的腿上旋转,必须重新调整。了解这种质量分布及其对结果的影响推动力是机器人可以用这组对象学习的东西。” Rodriguez说。

  在一个实验中,研究人员使用Omnipush训练了一个模型,以预测被推物体的最终姿势,只给出推入的初始姿势和描述。他们在150个Omnipush物体上训练了模型,并在物体伸出的部分上对其进行了测试。结果表明,经Omnipush训练的模型的准确度是在一些相似数据集上训练的模型的两倍。在他们的论文中,研究人员还记录了其他研究人员可以用来比较的准确性基准。

  由于Omnipush会捕获推送的视频,因此一种潜在的是视频预测。例如,一个合作者现在正在使用数据集来训练机器人以实质上“想象”在两点之间的推动物体。在Omnipush上进行训练后,将为机器人提供两个视频帧作为输入,以显示其开始位置和结束位置的对象。机器人使用起始位置来预测所有未来的视频帧,以确保对象到达其结束位置。然后,它以与每个预测视频帧匹配的方式推动对象,直到到达具有结束位置的帧。

  “机器人会根据实际情况问,“如果我执行此操作,对象将在此帧中的什么位置?”然后,它选择的操作将最大化使对象到达所需位置的可能性,”鲍萨说。“它通过首先想象图像在按下后如何改变像素来决定如何移动对象。”

  卡内基梅隆大学计算机科学与机器人学教授Matthew T. Mason表示:“ Omnipush包括对象运动的精确测量以及视觉数据,用于机器人与对象之间的重要相互作用。” “机器人研究人员可以使用这些数据来开发和测试新的机器人学习方法……这将推动机器人操纵技术的不断发展。”

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:康奈尔大学
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...