美国科学家研发会拒绝人类命令的机器人

环球网 2015-12-14

机器人

678 字丨阅读本文需 1 分钟

  据美国财经资讯网站QUARTZ 11月25日报道,美国马萨诸塞州的研究者们试图做一件科幻里预言的场景,即指导对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说“不”。

通常来讲,机器人是应该始终对人类的指示唯命是从的。当然,在汽车生产线上,对于一些对人类有潜在危险的工具,机器人是可以帮助进行游刃有余的进行操作。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。

  这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说,“我知道要怎么操作吗?”,“这件事是否在我工作范围内?”以及确认“要做这件事的话,我是否违背了正常的规则?”并且最后的关键的一点是,一定不要伤害人类以及相关财产安全。

  塔夫特实验小组将人类的一些内心独白简化为一系列逻辑论证,内置于机器人相关软件中加以识别。例如,在试验中,当命令机器人直直的朝一扇墙走去时,他果断拒绝,因为它自己识别到了该指示会带来危险。这项进展也着实令人欣慰。

  最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。

  如果你有幸与塔夫特实验组一起工作,你就可以见证机器人是如何思考,并且目睹在指示不合常理,有望伤人的情况下,它们是怎样义正言辞的说出“对不起,我不能这样做!”。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:环球网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...