克服人脑极限 凭借虚拟现实与潜意识理解大数据

X互联网实验室 2014-08-18

虚拟现实大数据数据可视化

1038 字丨阅读本文需 2 分钟

 

  8月17日消息,《福布斯》网站发表文章介绍了欧洲研究人员的CEEDs项目,该项目利用一种沉浸式、多模式的互动系统,通过虚拟现实技术,使用户能够“身临其境地体验”大数据。有趣的是,这一系统甚至能够参照被试者的潜意识,对可视化场景进行调整。

  以下为文章主要内容:

  当数据过多时,大脑理解起来就会有困难。如果人们处理的是庞大的数据信息,而不是单一数据,很难为这些数据归纳出有意义的、具有代表特征的模式。各种学科中,如天文、神经科学、考古学、历史或经济学,这种现象在都普遍存在:世界每一分钟会产生1700万亿字节的数据,相当于36万张DVD所能容纳的数据。我们如何理解这些海量数据呢?事实上,要理解这种数量级的数据人类几乎是做不到的,这是一项艰巨的挑战。单凭我们的大脑,哪怕在电脑的帮助下,我们也无力迎接这一挑战。或者勉为其难要去理解,则需花费过多的时间,结果也是徒劳。但如果我们用一种“移情”的方式呈现数据,这种方式更接近于平时我们认识世界的方式,那么会产生什么结果呢?欧盟CEEDs项目的研究人员正试图解答这一问题。

  该项目在巴塞罗那的庞培法布拉大学创立了一种沉浸式、多模式的互动系统,即经验归纳机器(eXperience Induction Machine,简称XIM)。研究人员正尝试利用这种虚拟现实技术,使用户能够“身临其境地体验”大数据。

  一旦用户开始佩戴XIM系统的虚拟现实耳机,集合数据会以不同形状或形式展现,这有助于降低理解数据的难度。而这种可视化场景如同镜子一般,能够随着用户的反应而发生改变。如果某些有趣的事物吸引了用户的注意,场景的焦点也会随之调整。

  有趣的是,虚拟场景参考的不一定是用户有意识的反应。研究者正在寻找场景可随潜意识变化而变化的线索。当发生某事时,在大脑产生意识之前,身体通常已经觉察到了。

  CEEDs项目计划使用可穿戴技术来测量人们对可视化后的大数据的反应。

  XIM系统通过各种设备监控手势、眼球运动或心率。运动传感器对姿势和身体动作进行追踪。手套记录手部动作,以及测量握力和皮肤反应。语音设备检测用户说话时的情感特征。此外,系统对面部表情、瞳孔扩张和其它参数进行测量,以调整大数据的呈现方式。

  伦敦大学金史密斯学院心理学教授、CEEDs项目协调人乔纳森 弗里曼(Jonathan Freeman)指出,当参与者对信息感到疲劳或负荷过大时,系统能够识别。在必要情况下,系统将简化可视化场景,从而降低用户认知的强度,或引导用户进入数据量较少的可视化场景中。

  CEEDs项目涵盖的专业领域范围广泛。例如,莱顿大学利用XIM系统来改进希腊古城的虚拟重构效果。自2012年以来,该技术也用于德国的贝尔根 贝尔森集中营纪念遗址,目的是为了重现纳粹集中营的历史。

  CEEDs项目的研究成果还可于其他方面。例如,在国际机场建立虚拟零售商店;把非洲的土质和气候条件以可视化场景呈现,以协助当地农民提升作物产量。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:X互联网实验室
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...