霍金就机器人造反发警告:人工智能进化快于人类

中国机器人网 2016-06-30

人工智能机器人

900 字丨阅读本文需 2 分钟

  英媒称,斯蒂芬·霍金教授称,一个不祥的威胁正在硅谷技术实验室的深处酝酿。伪装成贴心的数字助手和自动驾驶车辆的人工智能技术正站稳脚跟,有朝一日可能给人类带来灭顶之灾。

  英国《每日邮报》网站6月28日报道,这位世界知名的教授发出警告说,可能进化得比人类更快,它们的目标将是不可预测的。

  在《拉里·金现场秀》访谈节目中,霍金谈到了他对人类未来的担忧。他说:“我不认为人工智能的进步一定会是良性的。”这位物理学家以前也曾直言不讳地说出自己的想法。

  霍金是在西班牙加那利群岛接受采访的。他正以贵宾身份参加在那里举行的斯塔穆斯科学节。该科学节的宗旨是让科学变得平易近人。

  霍金说:“一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”

  这并不是这位物理学教授第一次就机器人造反作乱的危险发出警告。去年他曾表示,随着技术学会为自己着想以及适应环境,人类将面临一个不确定的未来。

  他在伦敦举行的一个活动上对英国广播公司说:“全人工智能的出现可能给人类带来灭顶之灾。”这延续了他去年早些时候的说法,当时他说,创造人工智能的成就“将是人类历史上最大的事件,但不幸的是,这同时也可能是最后的成就”。

  他声称,像Siri、Google Now及Cortana等个人数字助理功能的出现,只是信息技术“军备竞赛”的征兆。它们将在“今后几十年出现的新事物面前相形见绌”。

  而持这种观点的并非霍金一人。去年,埃隆·马斯克曾把人工智能比作“唤醒恶魔”。这位特斯拉汽车公司创始人曾警告说,有朝一日技术会变得比核武器更具危害性。

  但霍金在接受英国广播公司采访时特别提到,人工智能的潜在益处也可能是巨大的,拥有消除战争、疾病和贫穷的潜力。

  在拉里·金的最新访谈中,霍金称人类面临的最大威胁是我们自身的弱点。2010年接受拉里·金采访时,霍金表示人类的两个最大威胁是贪婪和愚蠢。在最新的采访中,他表示自那时以来情况并没有发生多少改变。

  霍金说:“我们的贪婪和愚蠢肯定没有减少。6年前,我就污染和人口过多发出了警告。从那以后,这两个问题变得更糟了。按照目前的速度,到2100年世界人口将达到110亿。在过去5年里,空气污染出现了恶化。”

  他说,人类面临的最大问题是“空气污染的加剧……以及二氧化碳水平的不断上升”。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:中国机器人网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...