垫脚石or绊脚石 机器人究竟扮演了什么角色?

中国机器人网 2017-05-17

机器人法律机械

6690 字丨阅读本文需 13 分钟

  也算是人吗?机器人也能拥有人权吗?它在人类生活中扮演了怎样的角色?是绊脚石还是垫脚石呢?近日,律师约翰。法兰克。韦弗在《石板》杂志中罗列出他对机器人的意见,他同时也是《机器人也是人》这本书的作者。他认为我们应该赋予机器人部分的人权,就像公司享有特定的权利和义务一样。

  为了让个人化机器人融入我们的生活,设计者必须精通人类互动的心理学,这方面目前已经有许多机器人学家正在着手进行。近日个人化机器人有了一个通用的专有名词,叫做“社交机器人”,大量研究都在探讨该如何让机器人拥有社交方面的魅力;这一点对个人化的辅助型机器人来说特别重要。

  研究显示,包括老人在内,多数人都愿意将机器人作为个人管家;研究还发现人们很快就会把自己的情绪投射到机器人身上,并把它们当作一般人来打量。大家对机器人面容的喜好也会依功能而改变,例如给予财经建议的机器人最好长的一脸聪明样,提供趣味和娱乐的机器人则可以拥有犹如孩子般的可爱面孔;至于在个人健康照护方面的机器人,大家还是偏好拟人的面容。只不过每一个人对自己机器人外貌的喜好似乎都不太一样,就跟维克多一样,很多人都觉得面容与人类过度相像的机器人,反而令人浑身不自在又毛骨悚然。

  一般来说,只有人类有所谓的情绪智商(emotionalintelligence,俗称EQ),但是若想要让机器人胜任个人和健康照护助理一职,让它们学习模拟人类的情绪智商就变成很重要的一环。只是在设计机器人的社交能力前,机器人学家必须先针对机器人欲扮演的角色设计出合适的面容。就如同前面所说的,人类习惯把特定功能的个人特质投注在机器人的面貌上,就像他们对不同职业的人也会有既定形象一样。

  

  引领世界迈向机器人科技的日本,现在正打算为它们快速老化的人口开发伴侣机器人。日资公司柴田(Shibata)已经创造出一款名为Paro、浑身毛茸茸的可爱机械海豹,并且通过检测,成为疗养院用来进行动物治疗的帮手。当使用者对Paro好的时候,它会柔声低鸣;相反的,当使用者粗暴对待它时,它则会厉声尖叫。研究人员发现,Paro的陪伴能改善疗养院住民心中的那股孤寂感,且效果与犬猫的陪伴十分类似。

  此外,Paro也能从与使用者的互动中,学习该如何判断自己主人的声调和手势。或许有些人会怀疑机械宠物怎么可能达到跟真实动物互动时相同的好处,但是这些宠物对老人家来说,确实是比有血有肉的动物更好照顾。Paro不仅通过日本的认证,更通过意大利、瑞典和美国的检测,在这些国家它都证明了自己的临床功效。目前为止,机械宠物的功能还相当简单,能表达的情绪不多,不过当其内建软件更为精进时,机械宠物也可以跟孩子一样学习,快速与它们的主人建立起独一无二的关系。

  另外,日本电子界巨头松下电器(Panasonic)将谈话型机器人的外观设计成猫咪或泰迪熊的样子。这些机器人内建语音识别软件,它们可以跟疗养院里的老人对话,甚至能在老人没有响应时对护士提出警告。如果日本婴儿潮时代想要监控年迈父母的日常状态,则可以购买一款名为Wakamura的机器人。这款高九十一公分的谈话机器人,双眼装有摄影镜头,能够作为无法随侍在侧的亲属的耳目,帮助他们掌握父母的动态,提醒父母诸如按时服药等生活琐事。另外还有一款类似的机器人能够提供视讯功能,让亲属之间可以互相面对面交谈。

  尽管利用机器人监控孱弱老人的立意良善,但是这不表示这些老人就愿意被人如此二十四小时监控,就算这个在远程观看的人是他们的至亲也不例外。

  对他们来说,这样全天候的监视会令他们产生某种程度的不安感,因为无时无刻都有人能透过这些装置窥听他们的一举一动。即便不是政府这类具有庞大势力的组织在监控他们,但多数人仍将隐私权视为重要的人权资产,不愿就此放弃。更何况,我们很难保证不会有亲属将这类机器人用在不好的地方。假如这些机器人被广泛使用在老人照护上,日后它们似乎也很可能在监控幼童和青少年身上。接着,在某个时间点,或许雇主也会用这项科技监视员工的工作状态,执法单位则会用它来监控市民的行为举止。到那个时候,谁能够保障市民的隐私不受监控?隐私权会不会就此成为过去式,还是社会将再制定出一套保障隐私权的律法?

  另一项议题则是有关机器人的运作和维护,以及依赖机器人的使用者很可能因此失去了自理智能家园的能力。万一有一天机器人故障了,智能家园里其他组件的运作也可能受到影响,而此时仰赖机器人执行一切事物的使用者或许便只能束手无策的干等技术人员来排解问题;也有可能操作这类系统的复杂度,和其产生的小故障并不会让老人家的生活变得更简便,反而还会更加复杂化他们的生活。当然,不管使用者欢迎与否,将来MOBISERV是一定会有全天候监控用户的功能。

  

  不论你怎么看待这件事,MOBISERV机器人确实正在取代传统照护者的功能,并和人类的生活交织出许多重要的连结。年老或孱弱者大多会非常倚赖它们,而忙碌的家属也可能会高度仰赖它们陪伴他们的至亲。虽然机械伴侣必然会模糊虚实之间的界线,然而,就算机械伴侣内建的程序再怎么亲民,也不可能让使用者跟它们产生如同真人般的情谊。

  机器人与人类之间的关系很难与人与人之间的情感相比拟,因为机器人只会对使用者唯命是从,不会对使用者提出任何挑战。人与人之间的关系尽管变化莫测、难以看透,但也就是这样,我们才得以从中成长。当人类能跟机器人以更简单、方便的方式建立起关系,我们还会愿意跟真实的人类建立情谊吗?事实上,与机器人相处越久,使用者就会越依赖它,同时他们丧失重要社交能力的风险也就会越大;也就是说,在使用机器人的过程中,使用者很可能因此以自我为中心,失去了尊重他人权益的能力。

  个人化机器人的功能越发精良,用户面临过度依赖机器人和丧失社交技能的危机就越大。人工智能的快速演进,将使机器人的外貌与人类越来越相像,让人难以分辨它和真人之间的差异。对某些人来说,机器人甚至可能会逐渐取代双亲或是配偶这类的重要关系。举例来说,有人大概会开始喜欢和机器人交欢,因为他们的某些性癖好或许会让他们的伴侣不安,但是机器人却会迎合他的每一项喜好。机器人能透过观察和试误学习,这将让它们看起来更加真实和聪颖。它们会顺应使用者的个性调整自己,与使用者发展出非常良好的关系。实际上比起人类,机器人或许会是更好的伴侣。随着机器人越来越人性化,和人类可能越来越机械化,届时男人、女人和机械之间的疆界大概会变得非常难以辨识。

  “让自己变成一个半机器人,并不纯粹是为了让你拥有更多的行动自由,这还和整个大环境的网络有关。”美国哲学家唐纳。海若威(DonnaHaraway)说。很快人类身上就会出现许多植入性的科技产物和仿生物对象,它们可以帮助人类完美地和整个物联网连结,物联网当中也包括了具备高端性能的。其实透过这套纵横交错的网络,我们每一个人都将拥有超乎本能的强大力量和能力,因为人类的本能和特质将会透过电子生态系统(electronicecosystem)不断向外扩张。尽管未来哲学家仍会对“人类究竟是由什么组成”这一项议题争论不休,但若机器人的发展一直朝这个的方向进行,人类也必须思考是否该在律法上为它们规范出应尽的权利和义务;只不过这个想法能否成立,还要取决于大众是否有将它们视同人类。

  现在你可以在亚马逊网络商店或eBay拍卖网站上找到许多五花八门、待价而沽的机器人,在军事用途和医疗方面也都能看见机器人的身影,然而真正促使大家注意到机器人合法性和道德责任这个议题的关键点,是自动驾驶汽车。

  谷歌的自动驾驶汽车已经在美国驶过四十万公里的路,到现在都没有出过任何状况。但是如果有一天这辆车涉及交通事故,造成人身财产的损伤该怎么办呢?谁需要负责相关的法律责任?驾驶吗?可实际上这台车的运作又不受他操控。谷歌吗?但他只不过是设计和编写这辆车的厂商。还是该由车子自己负责?伤者能够向谁求取赔偿?倘若这辆车违反交通规则时,又是谁会收到罚单?

  司法裁判这类事件的责任归属取决于众人对机器人的看法,也就是我们是否有将它们的行为等同人类视之;不少律法专家都建议应该赋予无人驾驶飞机和自动驾驶汽车这类机器人部分法定人权,如此一来,一旦它们造成意外,才能让它们负担起责任。就连前面提到的Watson也应该将它视为是一个享有法律上权利和义务的人,以免当它做出误诊,导致患者受伤或死亡时,患者求助无门。

  律师约翰。法兰克。韦弗(JohnFrankWeaver)在《石板》(Slate)杂志中罗列出他对机器人的意见,他同时也是《机器人也是人》(暂译,RobotsArePeople,Too)这本书的作者。他认为我们应该赋予机器人部分的人权,就像公司享有特定的权利和义务一样。他列出了应该给予机器人的五大权利和义务,这可以让我们免于为不必要的诉讼花费心力,还可确保受害者能够迅速地得到补偿。

  

  韦弗想要赋予机器人的第一项权利是,让它们享有签订和执行合约的权利。举例来说,假如想要亚马逊网络商店用无人驾驶飞机将一份包裹送到你家门口,你必须签订一份小合约,保障亚马逊不必因为无人飞机弄坏包裹或是送错东西而受罚。由于亚马逊和这类失误毫无关联,所以它并不需要负起法律上的责任,因此这类失误的责任就落到了机器人的身上。至于想要让机器人负起相关责任,就必须强制使用者为它们保险。

  韦弗以自动驾驶汽车为例,说明机器人必须保险的重要性。如果这些汽车有保险(由汽车的持有人购买),万一发生意外的时候,车主就不必遭到起诉,这将会提升民众购买自动驾驶汽车的意愿。伤者不但可以迅速获得保险的理赔,同时车主也不用为无谓的法律诉讼劳心劳力,减少不必要的冲突。

  依此脉络继续往下看,假以时日机器人或机器也能创作出艺术、音乐和文学这类的作品,韦弗认为届时机器人也应该拥有知识产权。他建议把这类机器人或程序的知识产权归列在发明者的名下,让他们拥有十年的专利权,十年过后,这些成品就能开放给大众使用。这样的规范不仅能激励发明家的创作动力,更可避免特定人士垄断相关技术。

  此外,机器人在某些情况下也必须担负起责任。这让保险更有意义,因为发生车祸时,保险就会理赔相关的损失,不用轮到车主自掏腰包。韦弗的最后意见和保姆有关,他预期到了某个时间点,家长将会仰赖机器人保姆来看照孩子。虽然想要让这件事情成真还有一大段路要走,但韦弗认为它迟早有一天会变成一件再普通不过的事。

  除此之外,他列出的机器人权利中,还包括了让机器人有权成为未成年人的监护人这一项。在对他的想法感到惊恐之前,我们必须先认清一件事,就法律上来说,孩子的监护权在一天之中本来就会历经多人之手。他说:

  “在我们的司法体系里,孩子永远在某些人的监护之下。每一天他们的监护权都会由父母的手中交付给学校、保姆,然后再重新回到他们父母的手中。”

  赋予机器人保姆暂时性的监护权,意味着当发生状况时机器人保姆也必须负起相对应的责任。除此之外,强制机器人负起法律责任的做法,也将激励制造商竭尽所能创造出最安全的机器人产品。

  然而,有些人会无条件的反对给予机器人部分人权的道德影射,但我认为有这类想法的律法专家都已经陷入现行法条的框架。艾默里大学法学院的资深讲师马克。高尔菲德(MarkGoldfeder)指出:

  “法律上的人格无关乎道德、情感或生命。身为一个法人,在司法体系中就享有行使特定权利和义务的资格,像是签订契约、拥有财产和进行法律诉讼等。并非所有的法人都享有相同的权利和义务,某些法人只有在特定的情况下才会被视作自然人,享有自然人的权利。”

  依目前的状况来看,法律已经有赋予公司部分人权的成熟先例。高尔菲德认为我们不需要等到机器人发展到与真人性能相仿时,才开始赋予它们律法上的特定人权。他说:“把一个个体当作人来看待,授予其权利和义务,是一种评估个体的手段,它无关乎这个个体长什么样子,或者是不是人类。”对他们来说,由于机器人在律法上只被赋予部分人权,因此这并不表示在社会和道德方面我们会将它定义为“人类”

  此外,机器人还有一个很大的好处,就是它可以在人类无法承受的危险环境下执行任务,比方说充满辐射的区域或是战况激烈的战场。尽管迄今还没有人将机器人的耗损和人类的死亡画上等号,但是当机器人科技越来越进步时,机器人所拥有的权利或许也会越来越多,这当中也包括了不被关机的权利。假以时日,关闭机器人的电源说不定会被视为一种犯罪行为,届时说不定机器人会受到与人类相似的律法保护。或许,我们在决定该给机器人哪些权利时,也要将它与其他个体之间建立起的深厚情谊一并纳入考虑,因为届时终止一台机器人运作所衍生的苦痛,可能不会比失去至亲来得少。

  再者,万一心智上传技术确实成真,不论他们是否有把心智植入机器人的体内,都一定会让这个议题更难理出头绪。从法律和道德层面来看,这些复制人该享有和原来那个人相同的权利和义务吗?透过心智上传创造出来的个体,是否可以承袭那名已故者的所有权利,成为他孩子的父母或配偶的伴侣,甚至是接管他生前的工作?又或者,它应该将一切归零,从头开始“生活”?

  还有一种情况会让这个问题更加复杂化,那就是有人在还活着的时候,就复制了自己的心智,创造出了一个自己的分身。这样的状况并非完全偏离现今科学的发展方向。研究人员现在正透过扫描脑部神经结构的影像,试图理解大脑的运作并模拟出第一个虚拟大脑。如此一来,享有法定人权的机器人是否可以拥有人类大脑的数字化副本?当它和另一个人同时拥有相同的思绪时,它能享有法定上的哪些权利?这个复制机器人能够再度复制它自己吗?或者这套心智原本的主人可以为自己创造出好几个分身吗?他能够享有这些分身的“所有权”,并且和他们发展出什么关系吗?虽然这些问题已经超出这本书讨论的范畴,但它们值得我们从现在就开始好好思索。

  另一方面,之后我们有没有可能发展出具有危险性或破坏性的机器人呢?具有人性的机器人一直以来都长踞科幻小说里的要角,而今日部分研究人员也正尝试为机器人编写某些道德框架,避免它们对人类造成伤害。将机器人道德化的应用并非与我们毫不相干,其实生活中的许多机器人都需要拥有这种能力。即使是无人驾驶汽车,也有可能必须面临严酷的道德抉择,而这类抉择就算换作是人也会举棋不定。

  想象一下,一辆无人驾驶汽车侦测到路边有一名推着婴儿车的年轻女性,但是如果它想要绕过她前行,就会撞到另一辆载有两名乘客的汽车。试问这辆车该撞上妈妈和婴儿,还是把车头向右转,撞上其他的车辆?

  还有当机器人在协助灾后或战后救援时,万一同时发现好几名受难者,它又该如何决定该先救治谁呢?因此为机器人编写道德方面的程序是当务之急,并非是可以等日后再慢慢处理的小事。

  

  说到这里,我要再一次提醒大家,别忘了军方一直都是走在科技创新的最前线。美国军方一直挹注经费给由塔夫茨大学(TuftsUniversity)、伦斯勒理工学院(RensselaerPolytechnicInstitute)、布朗(Brown)、耶鲁(Yale)和乔治敦大学(GeorgetownUniversity)共同合作的研究计划,试图找出如何让机器人心怀道德意识的方法。这项计划显示出美军对无人飞机依赖度的提升。目前为止,无人机皆需要军官在远程遥控,但军事研发的导向是希望开发出能够快速自行判断敌我,并迅速估量出可接受附加损害的自主性武器。

  军用机器人,无疑是证明机械是否能做出道德决定的最佳测试者,而军方在这方面已经有了一个好的开始,因为很多军事决定都是依据国际公认的作战公约进行判断。乔治亚理工学院的人工智能专家,同时也着有《管理自主性机器人的致命行为》(暂译,GoverningLethalBehaviorinAutonomousRobots)一书的罗讷德。阿尔金(RonaldArkin)认为,军用机器人能比真人军官做出更精准的决定,因为它们不容易受到愤怒或是仇恨这类的人性弱点束缚。

  不仅如此,机器人还能够快速考虑所有行动的可能性,再从中选取出最佳方案。只不过相对的,机器人体内的程序也不可能应付所有现实生活中发生的突发状况。例如自杀炸弹客和恐怖份子或许会乔装成一般民众来躲避自主性机器人的侦测,而这将会引起一个道德上的难题。假设有一个通缉中的恐怖份子,乔装成平民百姓,寻求医院或是学校的庇护,在这个情况下,机器人应该要狙击这名恐怖分子吗?即使这会造成许多无辜的伤亡?它能够权衡出当下造成的牺牲,将可能拯救多少人幸免于恐怖分子的伤害吗?

  评论者不太看好这些所谓内建道德模式的机器人,因为即便是设计者为它们编写了大量的相关程序,但战争或灾难现场里的状况千奇百怪,有许多状况机器人根本无法妥善处理。机器人专家诺埃。夏基(NoelSharkey)说,不论我们把机器人做得多么精细,它们也永远不可能产生道德意识—真正具有道德意念的决定还是必须靠人类的意志和能力来判断。我们必须认清一件事,在人类的生活中,很多时候就连我们自己都无法为一件事做出最好的决定。现实世界里有太多的变量,我们虽然可以先针对各种不同的决定,设想出每一种可能的结果,但是万一我们没有预想到某些状况,就代表我们也没办法事先把这些状况编写进机器的程序里。

  机器人大概永远都不能明辨是非。它们或许只能在毫无变量的状况下,从许多方案中挑选出一个比较好的。不过若要把自主性机器人放入生死交关的情境中,就意味着它们也必须做出攸关生死的决定。机器人学家不仅需要和工程师、语言学家、程序设计师和心理学家合作,同时也必须询问伦理学家、律师和政策制订者的意见。

  在科学家和哲学家绞尽脑汁思忖该如何赋予机器人道德意识之时,身为人类一员的我们也应该仔细思考,该怎么样才能解决人类日益依赖机器人和其他科技的问题。

  也许人们会因为依赖机器人而失去最重要的社交技巧,而这可能对社会和心理造成很大的伤害。一旦机器人成为人类从出生到死亡的主要照护者,这将意味着家庭和社会对个体的重要性也会受到损害。当机器人化身为我们的保姆、朋友、佣人和爱人,我们还会需要彼此吗?我们可能会默默的对生活中无所不在的机器人产生依赖感,或许在过程中没有太大地警觉,但等到我们开始意识到它们对社交、情感和精神发展上的伤害时,大概也为时已晚了;因为我们已经对机器人产生无法自拔的依赖感,更忘了该如何跟“真人”相处。

  今日,或许是我们仍有办法不受任何依赖者盲目意见的影响,从客观角度去评判机器人用途的最后一个时间点。我们必须仔细思考,未来机器人到底会成为人类发展的垫脚石,还是绊脚石呢?

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:中国机器人网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...