面对道德困境自动驾驶汽车该如何应对?

凤凰科技 2016-08-29

汽车无人驾驶威尔

886 字丨阅读本文需 2 分钟

  

   北京时间8月29日消息,据外媒报道,近日,谷歌工程总监科兹威尔在奇点大学发表了一场演讲,在谈到自动驾驶汽车面对“道德困境”将如何做选择时,他表示现在这个问题依然处于无解状态。

  在日常生活中,我们时常会遇到道德困境,人们必须做出两难选择,机器也一样。最近,Uber宣布在匹兹堡推出自动驾驶服务,这非常令人兴奋。不过,如果自动驾驶汽车面临一种道德困境,它将如何选择,设计者是否已经为它们设计好了应对方式呢?

  举例来说,如果自动驾驶汽车快要撞上另一辆汽车,那车里坐着三个人。它可以快速转弯闪开,但拯救车上三个人的后果是撞上人行道上的三个孩子,这时它会作何选择?

  这一典型的例子在自动驾驶汽车发展初期就被提出来了,而科兹威尔对这一问题的回答可以总结为:我们不知道。

  科兹威尔认为,原本的“不可杀人”这一定律过于简单了,它并没有考虑到一些特殊情况。举例来说,如果有人将要炸毁一幢建筑物或一个城市,那么机器人除掉他们就是符合道德的。

  就自动驾驶汽车来说,科兹威尔认为我们有必要对其进行“道德设计”。在演讲中,他提到了著名的机器人三原则,即:

  1:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

  2:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

  3:机器人必须保护自己,除非这种保护与以上两条相矛盾。

  那么,对自动驾驶汽车来说,可以挽救某人的生命却没有这样做,是否可以等同于杀戮呢?

  科兹威尔承认,在无人驾驶汽车的道德品性方面,他现在完全没有现成的答案。“我需要花更多时间进行思考,此前我没有进行过相关分析。”科兹威尔说道。

  关于这一道德难题,谷歌首席工程师安德鲁认为,当无人驾驶汽车面临两难选择时,“答案差不多总是‘踩刹车’。”

  他承认,这可能并不是完全正确的答案。但如果连踩刹车都不是一种正确的应对,那自动驾驶汽车面临的就是极端情形了。

  不过,这个世界上不就是充满着极端情形吗?谷歌这种模棱两可的回答实在不能令人满意。

  最近,麻省理工学院的研究人员创建了一个名为道德机器(Moral Machine)的调查项目。除了想知道面对此种情景人们会作何选择,此举还想获知人们希望无人驾驶汽车在面临道德困境时如何选择。

  这项调查看起来相当明智,但最终结果如何我们实在无法想象。

  对于该问题,Uber选择不予置评,也许它们对自动驾驶汽车的“道德困境”问题也暂时无解。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:凤凰科技
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...