开发像人类一样“思考”的人工智能:新研究使用3D建模来分析神经网络处理信息

874 字丨阅读本文需 2 分钟

创造类人 AI 不仅仅是模仿人类行为——技术还必须能够处理信息,或者如果要完全依赖它,就必须像人类一样“思考”。

格拉斯哥大学心理学和神经科学学院领导的新研究使用 3D 建模来分析深度神经网络(更广泛的机器学习家族的一部分)处理信息,并且可视化他们的信息处理方式,研究结果发表在Patterns杂志上。

希望这项新工作将为创建更可靠的人工智能技术铺平道路,该技术将像人类一样处理信息并犯下我们可以理解和预测的错误。

人工智能发展仍然面临的挑战之一是如何更好地理解机器思维的过程,以及它是否与人类处理信息的方式相匹配,以确保准确性。深度神经网络通常被认为是当前人类决策行为的最佳模型,在某些任务中实现甚至超过人类的表现。然而,与人类相比,即使是看似简单的视觉辨别任务也可以揭示人工智能模型的明显不一致和错误。

目前,深度神经网络技术用于人脸识别等应用,虽然在这些领域非常成功,但科学家们仍未完全了解这些网络如何处理信息

在这项新研究中,研究团队通过对深度神经网络给出的视觉刺激进行建模,以多种方式对其进行转换,从而通过处理人类和 AI 模型之间的相似信息来证明识别的相似性,从而解决了这个问题。

该研究的资深作者、格拉斯哥大学神经科学与技术研究所所长 Philippe Schyns 教授说:“当构建行为“像”人类的 AI 模型时,例如,当人们将其视为人类时,它就能识别出一个人的脸会做,我们必须确保 AI 模型使用来自人脸的相同信息来识别它。如果 AI 不这样做,我们可能会产生系统像人类一样工作的错觉,但后来发现它在一些新的或未经测试的情况下会出错。”

研究人员使用了一系列可修改的 3D 面孔,并要求人类对这些随机生成的面孔与四个熟悉的身份的相似性进行评分。然后,他们使用这些信息来测试深度神经网络是否出于相同的原因做出了相同的评分——不仅测试人类和人工智能是否做出了相同的决定,还测试了它是否基于相同的信息。

重要的是,通过他们的方法,研究人员可以将这些结果可视化为驱动人类和网络行为的 3D 面孔。例如,一个正确分类 2,000 个身份的网络是由一张高度漫画化的面孔驱动的,表明它识别的面孔处理的面孔信息与人类非常不同。

研究人员希望这项工作将为更可靠的 AI技术铺平道路,该技术的行为更像人类,并减少不可预测的错误。

该研究“基于可理解的功能特征对人类分类行为的深度神经网络预测:人脸身份的案例”发表在Patterns 上。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:小科工
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...