这双虚拟眼睛可以告诉你人们在观看时眼部是什么“表情”?

微观人 2022-03-08
1182 字丨阅读本文需 3 分钟

杜克大学(Duke University)的计算机工程师开发了虚拟眼睛,可以模拟人类如何准确地观察世界,以便公司培训虚拟现实和增强现实程序。该项目简称EyeSyn,它将帮助开发人员为快速扩展的metaverse创建应用程序,同时保护用户数据。

研究结果已被接受,并将在2022年5月4日至6日举行的传感器网络信息处理国际会议(IPSN)上发表。IPSN是一个领先的网络传感和控制研究年度论坛。

杜克大学(Duke)北电网络(Nortel Networks)电气和计算机工程助理教授玛丽亚·戈拉托娃(Maria Gorlatova)说:“如果你想通过观察一个人的眼睛来判断他是否正在阅读漫画书或高级文学作品,你可以这样做。但训练这种算法需要数百名戴着耳机的人一次数小时的数据。我们希望开发的软件不仅能减少收集此类数据所带来的隐私问题,还能让没有这些资源水平的小公司进入metaverse游戏。”

至少从《圣经》时代起,人们就一直在重复将眼睛描述为灵魂之窗的诗意见解,这是有充分理由的:我们眼睛如何运动和瞳孔如何扩张的微小运动提供了惊人的信息量。人类的眼睛可以揭示我们是否感到无聊或兴奋,注意力集中在哪里,我们是否是某项任务的专家或新手,甚至我们是否能流利地使用一种特定的语言。

戈拉托娃说:“你把愿景放在首位,这也说明了你作为一个人的很多方面。它会无意中暴露出性别和种族偏见、我们不想让别人知道的兴趣以及我们甚至可能不了解自己的信息。”

眼动数据对于在metaverse中构建平台和软件的公司来说是非常宝贵的。例如,通过阅读用户的眼睛,开发人员可以根据参与响应定制内容,或者降低周边视觉的分辨率,以节省计算能力。

面对如此广泛的复杂性,创建模拟普通人如何对各种刺激做出反应的虚拟眼睛听起来是一项艰巨的任务。Gorlatova和她的团队,包括前博士后助理郭浩兰,现在是荷兰代尔夫特理工大学的助理教授,以及目前的博士生Tim Scargill,潜入认知科学文献中,探索人类如何看待世界和处理视觉信息。

例如,当一个人看着别人说话时,他们的眼睛会在这个人的眼睛、鼻子和嘴巴之间交替不同的时间。在开发EyeSyn时,研究人员创建了一个模型,可以提取说话人身上这些特征的位置,并对他们的虚拟眼睛进行编程,以统计方式模拟专注于每个区域的时间。

如果你给EyeSyn提供大量不同的输入,并运行足够多的时间,你将创建一个合成眼球运动的数据集,这个数据集足够大,可以为一个新程序训练一个(机器学习)分类器。

为了测试他们合成眼睛的准确性,研究人员求助于公开的数据。他们首先让眼睛“观看”安东尼·福奇博士在新闻发布会上向媒体发表讲话的视频,并将其与实际观众的眼动数据进行比较。他们还比较了他们观察艺术的合成眼睛的虚拟数据集与浏览虚拟艺术博物馆的人收集的实际数据集。结果表明,EyeSyn能够与实际凝视信号的不同模式紧密匹配,并模拟不同人群眼睛的不同反应方式。

Gorlatova认为,这种水平的性能足以让公司将其作为培训新metaverse平台和软件的基准。在具备基本能力的情况下,商业软件可以在与特定用户交互后,通过个性化其算法实现更好的结果。

戈拉托娃说:“单凭合成数据并不完美,但这是一个很好的起点。较小的公司可以使用它,而不是花费时间和金钱试图建立他们自己的真实世界数据集(带有人类主体)。而且由于算法的个性化可以在本地系统上完成,人们不必担心他们的私人眼动数据会成为大型数据库的一部分。”

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:微观人
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...