“机器人威胁论”尘嚣甚上?DeepMind 研究要教机器人“服从人类”

雷锋网 2016-12-13

机器人deepmind人工智能

867 字丨阅读本文需 2 分钟

  以《机械公敌》为代表的科幻中,都表达了未来人类可能会被掌管的担忧。在耳渲目染下,不少人都坚信奇点(人工智能的智力超过人类)的存在,不过最新的研究报告可能舒缓这方面的担忧。

  来自Google的DeepMind人工智能实验室的最新研究报告指出,大脑信号将自动告诉我们人类如何融入社会等级。在制造智慧型机器人过程中,这项研究将会产生巨大帮助,使其了解自身阶级定位,从而让人类始终具备主动权。

  为摸清人类如何学习社会等级制度,来自DeepMind和伦敦大学学院的科研团队利用fMRI脑扫描仪,邀请了30名健康的大学生执行一项任务。这项任务就是假设自己毕业到想要的公司上班,如何才能尽快了解公司现有的权力架构。

  他们要求观察两名同事之间的「竞争」,并根据胜出结果来判断两者之间的权利大小。在完全了解公司的权力架构后,绘制出这家公司的权利阶级。而最终,他们不得不决定在公司内应该为哪个人工作。

  「我们发现这种让参与者了解团队中个体权利大小的方式,是贝叶斯推理逻辑的最佳证明。」DeepMind实验室的科研专家Dharshan Kumaran说道:「基本上你需要评估每个人的权利等级,当你接受到新的讯息(例如两个人的竞争结果)时候就会自动更新。」

  这意味着人们可以通过观察不同人之间的交互结果并填补缺失部分,就能迅速形成对整个层级等级的理解。

  举例来说,当有人观察到「Jane」在同「Paul」的竞赛中获胜,又观察到Paul战胜了很多竞赛者,那这样就能让他们预估Jane的权利有多大。这是因为有新的证据表明,Paul尽管是第一场比赛的失败者,但依然比我们想象中的更为强大。

  「相比较作为旁观者,当身处于某个权利架构中的时候,人类就会使用多种方式学习和展现社会阶层。」Kumaran说道:「人类的脑前额叶,是高度发达的区域。该项研究的参与者在了解自己所属社会团体中人员权利组成的时候,明显要比了解其他人的社会团体权利结构更加的活跃。这也表明当涉及自我信息的时候人类的特殊天然反应。」

  社会互动必须要区分我们的思想、目标和偏好,而这正式人类所擅长的认知功能。Kumaran教授说道:「DeepMind团队从事神经科学研究的部分原因是,我们的终极目标是研发人工智能并将其解决世界上最棘手的问题。」

  「因此我们口中的『智能』的核心之一是,理解我们人类自己是如何学习结构化知识,因此这是我们研究的重点。」这项研究成果已经在《Neuron》期刊上发表。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:雷锋网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...