人工智能的“愚蠢”表现,可能给人类带来一系列风险和挑战

AI小助手 2022-05-06

人工智能智能机器

2101 字丨阅读本文需 6 分钟

一般认为,符合人类整体利益的人工智能设计,既能够凸显机器、程序、算法的智能,还能够增强人类的智能,呈现出机器智能和人类智能增强的叠加效应。大多数人工智能的发展与应用,都会以“建造造福人类的新工具”为目标。然而,立足现实,人工智能在一定程度上会展现出人工愚蠢。现有人工智能的“愚蠢”表现,可能给人类带来一系列风险和挑战。

1、人工愚蠢会带来不良后果

人工愚蠢,无论是机器愚蠢还是人类愚蠢,当其作用于我们的生产生活时,都会带来不良后果。机器愚蠢会带来算法歧视、隐私泄露、决策失误等问题。与此同时,随着人工智能在人类社会的大规模应用,业已呈现和可能导致一些令人忧虑的人类愚蠢,一些人逐步弱化甚至丧失本应具备的基本知识和能力。

归结起来,人们一方面被“愚蠢”的机器所困扰,另一方面又担心陷入“聪明”机器的“奴役”之中,“被迫”行进在技术和自身异化的道路上,亟待找到能够挣脱困境的现实出路。对此,我们可以从以下几个方面进行深入思考并付诸实践。

其一,促进人工智能与人类智能的协同发展。

无论人们是厌恶机器愚蠢,还是害怕因机器的“聪慧”被迫戴上人类愚蠢的枷锁,皆出于人工智能与人类智能的巨大鸿沟或对二者的心理落差:我们希望机器做好的,机器有时会做不好;我们不希望机器做好的,机器有时又会做得很好。要使人工智能符合我们的心理预期,有必要明确人工智能和人类智能各自的局限性和优势,以便实现优势互补。

其二,强化对人工智能在法律和伦理方面的监管与治理。

法律和伦理方面的监管与治理,是确保人工智能潜力得以充分发挥、实现人类利益最大化的必要条件。我们要关注人工智能的技术生成和社会应用过程,应在积极促成人工智能技术向前推进的同时,避免将人工智能的能力在技术上推得太远,以便及时对人工智能发展方向进行纠偏——既要增进人工智能,又不能弱化人类智能、降低人类尊严。

我们应坚决奉行全人类利益至上原则,对于道德上不可接受的方案,即便是技术上可行也要无条件叫停。此外,有关部门不仅要制定有关个人数据收集、处理、存储的通用规范、测试算法,确保其透明度的指南和程序等,还要尽可能避免极少数组织或个人对人工智能技术及有关数据的垄断。

其三,推进实施科学与人文相融合的教育。

在人工智能广泛应用的背景下,实施与之相匹配的教育,或许是应对人工愚蠢的核心理念。人工智能归根结底是由人设计和发明出来的,其使用者亦是人类自己。

因此,能够应对人工智能发展的教育,需要受教育者既能够掌握先进的科学技术和正确的思维方式,又能够形成高尚的价值观,锻造良善的人性。从广义上讲,人性化的一面和使用人性化的方法将越来越重要。我们需要培养既了解人工智能技术又理解人工智能伦理的复合型人才。

其四,鼓励公众参与人工智能系统的开发与完善过程。

当前,人工智能覆盖的领域越来越广阔,人工智能技术越来越广泛且直接面对社会公众。在应对人工愚蠢的过程中,公众参与的广度和效度发挥着举足轻重的作用。人工智能的设计者、应用人工智能的企业、人工智能的监管和治理者等各方,都应大量收集公众对人工智能发展有益的意见和建议。

其五,通过国际协作,制定符合全人类共同价值的人工智能准则。

发展人工智能是一项需要全人类共同参与的伟大事业,是一项致力于造福全人类的系统工程。应对人工愚蠢,需要全人类的共同努力。这就需要世界各国共同制定符合全人类共同价值的人工智能准则,避免某些国家或组织搞单边主义,致使少数人享受着一时的人工智能便利,而导致大多数人被潜在的人工愚蠢所包围。

为了人类能够共享人工智能的发展成果,远离令人厌恶的人工愚蠢,世界各国的最佳选择就是聚同化异、凝聚共识,在制定符合全人类共同价值的人工智能准则的前提下,积极开展全球合作,以全人类的智慧战胜人工愚蠢。

2、人工智能会对人类生存构成威胁吗?

目前存在的人工智能称为“侠义”或“弱”人工智能。它被广泛应用于许多应用,如面部识别、自动驾驶汽车和互联网推荐。它被定义为“狭义的”人工智能,因为这些系统仅能学习和执行非常具体的任务。

事实上,他们通常比人类更好地完成这些任务。另一种人工智能称为人工通用智能(AGI)。这被定义为模仿人类智能的人工智能,包括思考和将智能应用于多个不同问题的能力

虽然还不清楚人工通用智能(AGI)何时或是否会发生,但我们能否预测它们可能对我们人类构成什么威胁?人工通用智能(AGI)从经验和数据中学习,而不是被明确告知要做什么。这意味着,当面对前所未有的新形势时,我们可能无法完全预测它的反应。

路易斯维尔大学的计算机科学家罗曼·扬波尔斯基(RomanYampolskiy)博士也认为“人类控制人工智能的任何版本都是不可能实现的”,因为人工智能不可能既自主又被人类控制。不能控制超级智能系统可能是灾难性的。

我们今天使用的人工智能会成为威胁吗?

许多专家一致认为,人工智能掌握在不怀好意的人中可能是一个威胁。哈维·穆德学院的人工智能专家乔治·蒙塔内兹博士强调,“机器人和人工智能系统不需要有感知力就有危险;它们只需成为那些想要伤害他人的人手中的有效工具。这是今天存在的威胁。”

即使没有恶意,今天的人工智能也可能具有威胁性。例如,在美国,将医疗保健分配给患者的算法中发现了种族偏见。在用于执法的面部识别软件中也发现了类似的偏见。这些偏见有广泛的负面影响,尽管仅仅是“侠义”的能力人工智能。人工智能偏差来自于它所训练的数据。在种族偏见的情况下,训练数据不能代表一般人群。

我们今天使用的人工智能对于许多不同的任务都非常有用。这并不意味着它总是积极的——它是一种工具,如果恶意或不正确地使用,可能会产生负面后果。尽管如此,目前看来不太可能成为对人类生存的威胁。

文章来源: 中国社会科学网,炎讯视界

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:AI小助手
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...