人工智能领域亟须新安全观

环球网 2019-09-06

人工智能

1127 字丨阅读本文需 2 分钟

  近日,美国国防部联合人工智能中心主任沙纳汉声称,2020将是美军在人工智能领域实现突破的一年。明年中心的人员将增加60个编制,预算增长3倍,并将在一系列项目上快速取得突破。沙纳汉认为,要应对大国在人工智能领域的竞争,美国必须要加大、加快在人工智能军事领域的投入。

  美军大举在人工智能领域布局,反映了人工智能的武器化、实战化正在逐步成为现实。从人类历史上看,军事是推动科技进步的重要力量,包括核武器、互联网等很多重大科技领域的突破都是源自军事目的。国家出于军事目的发展具有战略意义的高科技在当代也非常普遍,越来越多的国家开始加速布局人工智能在军事领域的应用。

  值得警惕的是,当代国际关系领域一个显著的“安全困境”就是大国为谋取战略竞争优势而发展高科技武器,引起众多国家效仿,反而恶化了整体的安全环境。人工智能已成为引发“安全困境”的新领域,人工智能军事化发展的安全困境将会伴随大国不断加大投入而提前到来。

  因此,国际社会应当建立一种新的安全观来看待人工智能的安全问题,包括从技术安全、应用安全和体系安全三个层面来应对人工智能的安全困境。

  一是要关注人工智能自身的技术安全问题。算法黑箱、自主决策、数据安全都有可能带来人工智能武器的失控,并由此带来严重的安全后果。因此,如何在确保安全的前提下开展人工智能军事应用至关重要。

  二是人工智能应用中的安全。不负责任地使用人工智能武器或是随意扩散,都有可能给国际社会造成严重的安全、经济和社会层面伤害。比如滥用人工智能武器造成无辜平民的伤亡,恐怖分子获取人工智能武器将会实施的重大恐怖袭击。

  三是必须关注人工智能在军事领域的应用对国际安全体系造成的颠覆。随着人工智能的发展,战争的形态将被彻底改变。军人、战场和战争模式会发生颠覆性的变化。程序员将成为军人中的重要组成部分,更加精确的杀伤将会使得战场范围更加广阔,传统的战争决策模式也难以适应人工智能快速反应的决策。如此巨大的变化将会使传统的国际安全架构难以适应新挑战,现有的冲突降级、危机管控、建立信任措施等维护国际安全的手段无法解决大国在人工智能军事领域的冲突,危及国际安全体系稳定。

  新的安全观有助于更好地理解人工智能军事化应用所带来的安全挑战,但要应对挑战,还需要建立新的治理机制。

  首先,要建立以技术治理为主体的人工智能全球治理体系,改变国家的安全观念,更加积极地促进知识和经验的分享来维护体系安全,而不是通过垄断技术来获取竞争优势。其次,人工智能的全球治理应当处理好政府与其他利益攸关方的关系。人工智能具有军民两用性,技术在军事领域的应用会对民用产生负面影响。如谷歌和亚马逊都因为与军方开展人工智能合作而遭到了员工和客户的反对。最后,应有约束大国发展和使用军事人工智能的国际机制,形成大国审慎考虑自身行为带来安全困境的舆论氛围。(作者:鲁传颖 上海国际问题研究院网络空间国际治理研究中心秘书长)

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:环球网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...