人工智能来了 法律是否该未雨绸缪

法制日报——法制网 2017-02-15

人工智能法律

2241 字丨阅读本文需 4 分钟

  人工智能、自主系统的出现,不但挑战了人类对自然的认识,也挑战了人类对自己的认识,其中就包括各种不可想象变为现实后的法律风险。人工智能离我们的生活有多远?人工智能时代,我们将面临哪些风险?又该如何防范?围绕这些话题,记者与业内研究人士展开了对话。

  对话人:腾讯研究院研究员 曹建峰 《法制日报》记者 张昊

  记者:对于人工智能,很多人的了解还停留在科幻、阿尔法狗。从概念上说,人工智能是一种怎样的存在?

  曹建峰:通俗地理解,人工智能就是机器能完成人类需要智力才能完成的任务。

  以往,我们认为地球上只有人类才有智能,人类的智能包括理性思维、语言能力、逻辑推理和情感,可以解决问题,有自己的目标,可以执行行动。当然,“智能”这个词的边界尚有很多争议,也在不断变化。目前对“人工智能”(AI)和“自主系统”(AS)中的人工智能概念在科学界还没有达成一个共识。

  美国“人工智能教科书”以人类为参考,对人工智能有一个通常的定义,即像人一样思考,像人一样行动,理性思考和理性行动。对人工智能还有一些其他的定义,例如能自己设立目标,然后制定一系列的计划执行出来。

  人工智能内在的技术或核心用到了一些深度算法,例如神经网络算法,模拟人的大脑结构,从而模拟人类思维、决策的过程。还有深度学习、基因算法、进化论等,深度算法技术支持着进行某种决策。

  人工智能和以往的计算机程序的区别,就是它具有自主性,只需要给它一些最原始的数据,它自己可以推出一个结论,做出自己的决策和判断,它有学习的能力,这就是自主性。

  记者:我们接触比较早也比较多的人工智能,应该算是聊天机器人软件。它会通过所有用户的使用过程进行语言学习,“进化”自己,逐渐进行更丰富的对话。当然,聊天机器人软件也会学到脏话,用户在对话中告诉它“你说的是脏话”,它还会纠正自己。除了这种聊天机器人软件,目前的日常生活里,我们还会遇到哪些人工智能?

  曹建峰:国外大软件公司都在推出自己的聊天机器人,目前这种应用还是比较初步的。此外,例如自动驾驶汽车或辅助驾驶,驾驶员不需要按着方向盘,可以自主完成停车、变道、转弯。人工智能应用还有酒店、救援机器人,个性化推荐等。

  

  记者:在影视剧中,我们会看到很多探讨人工智能与人类伦理法律的问题。随着人工智能技术的发展,我们在现实生活里是否也会遇到这些问题?

  曹建峰:AI系统应用日益广泛,进入了社会生活的很多方面。首先是安全问题,从法律角度看,就可以转化为责任问题。例如无人驾驶会不会对我们的财产、人身安全造成伤害?司机坐在上面不需要自己开车,更像是一个乘客的角色。如果无人驾驶车辆出现故障,导致司机致人损害,司机是否能够获得赔偿?在混合驾驶模式下,司机和车需要配合,发生了车祸,厂商是否需要担责?司机和厂商的责任分配问题目前还比较模糊。

  再比如,如何保证人工智能遵守社会规范和社会价值,它面对风险的时候怎么像人一样决策。例如救援机器人,在老者和弱者之间怎么选择,先救谁后救谁,这些都需要提前考虑。

  还有隐私的问题。人工智能发展迅速,它做出决策需要大量的个人数据存在人工智能系统中。人工智能系统对我们进行“画像”,形成一个“感官的印象”。我们自己可能都无法知道我们被这些软件或系统进行了画像,更无从知晓这些画像是否真实。或者说,系统给我们打一些标签,我们可能不知道它给我们打的是什么样的标签,这些标签是不是错误或者有一些问题,这些标签转移到其他场合的时候,会对我们的权利产生影响,比如可能影响我们申请贷款、找工作等。我们自己意识不到这个问题,因为它使用的信息是不公开不透明的。

  记者:也就是说,人工智能系统搜集的可能是片面的信息,在将来会对人的权利产生影响。

  曹建峰:人工智能系统收集什么信息、这个信息做怎样的决策,我们自己是无法控制的,更多时候也是不知情的。

  比如,国外一些公司在招聘时会用AI对应聘者进行人格测试,如果系统认为应聘者未来会患上某种疾病或怀孕,可能会造成应聘者被拒,会违反禁止歧视的法律规定。

  还有一个问题是算法歧视,这是一个比较迫切的问题。以前有很多工作都是人来完成的,现在被人工智能系统代替,例如个性化推荐。

  记者:关于人工智能可能产生的法律问题,我们是否应提前做好应对?

  曹建峰:现在讨论有些问题可能还太早,比如人工智能的智力是否会超越人类、脱离人类控制等问题,目前来看还比较远。

  不过,一些比较具体的问题还是需要提前关注。比如无人驾驶汽车、混合驾驶汽车,很快就会进入我们的生活,其中涉及的法律问题需要提前考虑。

  记者:在刚才所提到的一些问题中,还包括财产和安全的威胁、责任、遵守人类的法则、算法歧视等,这些是否也都应成为法律关注点?

  曹建峰:对,很多方面都是法律问题,可以用法律解决。事前的监管主要是研发环节,如果不考虑人类社会的道德规范和价值规范,人工智能应用投入市场之后,在面对危险和事故时,可能做出一些有违人类期待的决策。

  世界各国业界都很关心人工智能的研发环节,也就是说设计开发过程是否应该有一些伦理守则,包括遵守人类的道德规范和价值规范、确保安全、公众如何信任研发的AI系统。

  首先,成文的法律是必须要遵守的,成文的法律写入代码需要一些方法论。还有面对危机的时候,人工智能应该遵守哪些善恶、是非的选择,这些共识性的道德规则、社会和一些团体共同的价值观要写入代码。

  在研发过程中,程序员写出来的程序可能在技术上没有瑕疵,但可能存在社会领域的漏洞,一旦应用可能产生歧视或安全隐患,这就需要建立伦理委员会的审查机制,从社会规范和价值的角度审查算法、逻辑是否与人类规范、价值是一致的,并从专业角度给予建议。

  记者:通过刚才的对话可以看出,公开透明原则非常重要,但这一点该如何解决?

  曹建峰:信息透明这个问题有几种解决方式,一是人工智能开源运动。开源软件,顾名思义大家都可以共享源代码,可以对软件进行审查,可以及时发现一些问题。另一种方式是,人工智能系统可能不需要向每个人公开,但需要向审批的监管部门公开源代码和其他的材料。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:法制日报——法制网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...