【思考】欧盟眼中的人工智能伦理问题

腾讯研究院 2018-04-02

人工智能机器人法律

4511 字丨阅读本文需 9 分钟

  如今,人工智能伦理成为国际社会关注的焦点。

  此前,未来生命研究院(FLI)推动提出“23条人工智能原则”,IEEE发起人工智能伦理标准项目并提出具体指南。联合国曾耗时两年完成伦理报告,认为需要机器人和人工智能伦理的国际框架。OECD亦开始考虑制定国际人工智能伦理指南。

  欧盟在这方面的动作亦很频繁,积极推进人工智能伦理框架的确立。去年欧盟议会就曾通过一项立法决议,提出要制定“机器人宪章”,以及推动人工智能和机器人民事立法。

  去年年底欧盟将人工智能伦理确立为2018年立法工作重点,要在人工智能和机器人领域呼吁高水平的数据保护、数字权利和道德标准,并成立了人工智能工作小组,就人工智能的发展和技术引发的道德问题制定指导方针。

  2018年3月9日,欧洲科学与新技术伦理组织(European Group on Ethics in Science and New Technologies)发布《关于人工智能、机器人及“自主”系统的声明》(Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems)。

  报告认为,人工智能、机器人技术和所谓的“自主”技术的进步已经引发了一系列复杂的、亟待解决的道德问题。

  该声明呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定共同的、国际公认的道德和法律框架。声明还提出了一套基于欧盟条约和欧盟基本权利宪章规定的价值观的基本伦理原则,为人工智能、机器人以及“自主”系统的发展提供指导性意见。

  1

  如今,人工智能在公共部门和私营部门带来层出不穷的新产品和新服务,可以改善工作条件或减少对人类投入的需要,从而辅助或取代人类。然而,人工智能系统却是最不透明的。

  深度学习和所谓的“生成对抗网络模型”使机器自我学习。但是,机器的行为常常是不可理解的,也不受人类审查。不仅人们无法知晓系统如何决策,而且所使用的数据也是不公开的。因此,偏见和错误可能进入系统。

  相关的技术发展包括以下方面:

  (1)以机器学习(尤其是深度学习)为代表的人工智能,在大数据的驱动下,变得越来越强大。一般认为,人工智能的内在机理极其难以追溯、解释和评估。

  (2)先进的机电一体化(人工智能与深度学习、数据科学、传感器技术、物联网、机械和电气工程相结合)正在为服务业、生产行业和健康领域的实际,设计出各种机器人和高科技系统,例如可以从事护理、零售、物流、家庭自主以及维护安全的各种系统。目前在这个领域争论最多的是机器人武器系统(robotic weapons systems)和“自主”(autonomous)汽车这两项应用。

  (3)更加智能的系统具有高度的自主性,这意味着其可以独立地执行任务而不受人类的控制。

  (4)机器人、人工智能和机电一体化,正在推动着更高程度自主系统的发展。国家和大型公司都在这个领域内投入了大量资金。目前,能够在人工智能研究领域保持领先地位成为了世界超级大国的主要目标之一。

  (5)在人工智能的发展过程中要注重人类和机器的密切互动和紧密合作。实践证明,在某些领域内,人工智能系统和人类专业人员密切配合的效率往往要高于人类或机器系统单独操作。

  2

  

  现阶段值得我们进行反思的是,随着能够脱离人类而独立运行的高科技系统和软件的出现,一些人类工作即将被取代,这将引发一系列重要且艰难的道德问题。

  1

  关键问题

  第一,是关于安全性、保险性以及预防损害、减少风险的问题。我们如何才能让互联的人工智能和“自主”设备安全可靠地运行,我们又该如何评估风险?

  第二,是关于人类道德责任方面的问题。在具有先进人工智能和机器人组件的动态和复杂的社会-技术系统中,道德相关的代理(agency)应该处于什么位置?应该如何分担产生的道德责任,又应该由谁为其中产生的不良后果负责?探讨人与智能机器之间的“共同控制”和“共同责任”是否有意义?人类是否将成为被视为道德“缓冲区(crumple zones)”的“自主”设备的生态系统的一部分,是为了吸收责任,还是他们有能力为自己的行为负责?

  第三,人工智能引发了关于治理、监管、设计、开发、检查、监督、测试和认证的问题。我们应该如何重新设计为个人和社会服务的机构和法律,以确保这一技术不会给社会带来危害?

  第四,是有关民主决策的问题,主要是关于制度、政策以及价值观的决策,这些是解决上述所有问题的基础。在全球范围内开展调查,确定公民利用基于机器学习、大数据和行为科学相结合的先进技术的程度,确定其是否能够利用这些先进技术进行细致的分析和定位,或者根据商业或政治目的进行合适的架构选择。

  最后,对人工智能和“自主”系统的可解释性和透明度仍存在疑问。这些系统能够有效地提供哪些价值?我们应基于何种价值观来设计机器,制定政策?我们在技术进步和效益权衡方面是否直接地或间接地破坏了一部分价值?

  一些国家关于人工智能驱动的,基于社会评分系统的,社会过程的“最优化”的试验,违背了平等和自由的基本思想,这就像种姓制度一样,在现实中定义了“不同种类的人”以及“人的不同属性”。

  2

  核心考量

  道德意义上的自主只能是一种人类活动。所以,将“自主”这个术语应用于纯粹的人工制品,是一种误用。然而,“自主”系统这个术语在科学文献和公众辩论中却广泛流行,指的是在操作和决策“自主”方面最高程度的自动性和独立性。但是,原始意义上的自主是人类尊严的一个重要方面,不应该将其相对化。

  机器不能被赋予人的道德地位并且继承人的尊严。因此,与生产的自动化相反,用我们处理物体或数据的方式来解决人类问题是不合适的,这种对人类“自主”的处理方式是不道德的,并且会破坏本质意义上的欧洲价值观。

  人们应该明确哪些价值是可以由技术服务的,哪些是与道德紧密相关的,不管机器会变得多么“自主”,有些问题是不能由它们来解决的。

  这里的道德责任可能被广义地解释为涉及人类代理的几个方面,例如因果关系、问责制(提供说明的义务)、责任(赔偿损害的义务)、赞赏和责备等反应性态度以及与社会角色相关的责任。无论如何,道德责任不能被分配或转移到相关的“自主”技术上。

  最近,在关于致命自主武器系统(Lethal Autonomous Weapons Systems)和自主车辆的争论中,似乎存在着广泛的共识,即有意义的人类控制对道德责任至关重要。

  这是有意义的人类控制(Meaningful Human Control)原则首次被提出用来限制未来武器系统的开发和利用。这意味着人类——而不是计算机及其算法——最终应在此类问题上保持控制权。

  3

  自动驾驶汽车和致命自主武器系统的发展引发了众多关于道德的辩论。该框架的核心问题主要是“自主”系统的责任问题,其可能造成的影响以及如何对其进行编程,使其能够在应用中符合道德规则,如在危急情况下挽救人的生命。

  这其实忽略了很多问题,例如“过去采取的哪些设计方面的决策造成了这种道德困境”,“哪些价值观应该在设计中予以考虑”,“设计中的价值应该在冲突情况下如何衡量以及由谁来衡量”?

  第二个存在争议的是“自主”武器系统。现在需要关注的问题是这些系统上“有意义的人类控制”的性质和意义是什么,以及如何建立这种符合道德原则的“有意义的人类控制”。

  第三个重要的应用领域是“自主”软件,包括机器人。除了关于数据保护和隐私的简单问题之外,我们可能会问人们是否有权知道他们是在和人还是和人工智能系统交流。

  此外,问题还在于是否应该限制人工智能系统根据个人对其身份概念的建构而向该人提供建议的行为。虽然人们越来越意识到需要解决这些问题,但目前人工智能和机器人技术的发展速度远快于寻找这些棘手的道德、法律和社会问题答案的速度。显然现在急需为人工智能,机器人和“自主”系统的设计、生产、使用和治理规划一个整体化的、全面性的发展进程,为设立共同的、国际公认的道德框架铺平道路。

  3

  建立一个同时适用于人工智能,机器人和“自主”系统的伦理框架

  许多行业内部的从业者和专家协会都提出了制定人工智能和“自主”系统的道德原则方面的一些突出举措。

  主要倡议之一是由生命未来研究院(FLI)发起的,最终形成了“阿西洛玛人工智能原则(Asilomar AI Principles)”。这份指导人工智能研究和应用的23项基本原则已由数百名利益相关方签署,签署者主要是科学家、人工智能研究人员和行业相关者。

  联合国和“特定常规武器公约”的会议启动了人工智能军事应用的全球性辩论,大多数缔约国都赞同“对致命自主武器系统进行有意义的人类控制”原则,应该禁止建立能够脱离人类控制的自主武器系统。联合国还在海牙建立了一个专门研究机构,研究机器人和人工智能的治理。

  与此同时,在国家层面上,各个国家对待人工智能的态度各不相同。一些国家将制定机器人和人工智能规则作为优先事项,而其他国家却尚未采取任何措施。由于各国发展状况不一,欧洲议会呼吁先采取一系列措施来准备对发展到一定阶段的人工智能进行监管,包括为机器人的设计、生产和使用制定指导性道德框架。

  4

 

  欧洲科学与新技术伦理组织提出了一系列基本原则和民主先决条件,其基础是欧盟条约和欧盟基本权利宪章。

  1

  人类尊严(Human dignity)

  尊严原则可被理解为对固有的人类状态尊重性地承认,其不能被“自主”技术所侵犯。这意味着,对于算法和“自主”系统必须加以法律的限制。以社会关系为特征的人格尊严要求我们意识到自己是否或者何时与机器或其他人互动,并且应保留将特定任务归还给人或机器的权利。

  2

  自主(Autonomy)

  自主原则意味着自由。但这就赋予了人控制和了解“自主”系统的责任。因此,所有“自主”技术必须尊重人类选择,尊重人类选择是否、如何以及何时将决策和行动委托给人工智能系统的能力。这也涉及“自主”系统的透明度和可预测性。

  3

  责任(Responsibility)

  责任原则是人工智能研究和应用的基础。“自主”系统的设计应该与基本的人类价值观和权利相一致。对“自主”技术而言,风险意识和相应的预防措施至关重要。

  人工智能和机器人技术的应用不应对人类构成伤害或让其承受不可接受的风险,并且不应通过非法手段损害公民的选择权和自主权,而应该是增加获取知识的机会,并以关注伦理、社会责任以及保护基本权利和价值作为追求目标。

  4

  正义、公平和团结(Justice, equity, and solidarity)

  对于人工智能系统,应尽早预防、检测、报告以及消除系统中训练和运行数据中存在的歧视性偏差。这包括制定公平分配利益和机会公平的新型模式。要警惕累积的大量个人详尽数据的不良影响,避免激进个人主义的出现。

  5

  民主(Democracy)

  人工智能发展和应用管理的关键决策应该通过公众参与,经过民主辩论得出。获取有关新技术的信息有助于每个人充分了解风险和机遇,并参与决策过程。人的尊严和自主原则集中地通过民主手段来体现人的自决权,数字技术应该通过运用集体智慧来改善民主社会所依赖的公民进程。

  6

  法治和问责制(Rule of law and accountability)

  司法机关所能发挥的作用为设立人工智能具体规定提供了必要框架。这包括对“自主”系统可能产生安全和隐私风险的保护问题。对该领域出现的所有法律问题,应当及时研究并寻找强有力的解决方案,提供公平和明确的责任分配以及有约束力的法律机制,明确“自主”系统不良行为所造成损害的责任承担问题。

  7

  安全性、保险性以及身体和精神完整性(Security, safety, bodily and mental integrity)

  “自主”系统的安全性和保险性体现为三种形式:其环境和用户的外部安全性;可靠性和内部稳健性;人机交互方面的模式安全。人工智能开发人员必须考虑到安全方面的所有问题,在系统发布之前进行严格的测试,以确保“自主”系统不会侵犯多方面的安全性。

  8

  数据保护和隐私(Data protection and privacy)

  在数字通信技术无处不在的时代,个人信息和隐私权的保护受到严峻威胁。在此环境下,人工以及人工智能软件必须遵守数据保护条例(GDPR)。

  此外,“自主”系统不得干涉私人生活,在这方面,应确定确切的标准并建立相关机制,以确保道德机制不断完善,为“自主”系统的正确适用提供规范。

  9

  可持续性(Sustainability)

  在发展人工智能技术的同时要防止未来技术对人类生命和自然造成不利影响,应将环境保护和可持续性优先放在人工智能发展政策的首要位置。如果设计和应用得当,人工智能、机器人和“自主”系统有助于实现道德理想和社会经济目标。

  5

  欧洲科学与新技术伦理组织呼吁欧盟委员会认真考虑本声明中讨论的问题及相关法律规则,确认是否需要新的管理和监管手段。为人工智能、机器人和“自主”系统的设计、生产、使用和治理,建立一个通用的、国际公认的道德和法律框架。

  作者:

  曹建峰 腾讯研究院法律研究中心高级研究员

  付一方 腾讯研究院法律研究中心助理研究员

  霍文新 腾讯研究院法律研究中心助理研究员

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:腾讯研究院
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...