你的位置:首页 >> 产品展示 >> 表面肌电传感器系统 >> 大脑工作室  大脑工作室
多个生物传感器进行研究
来源:薄膜压力传感器 | 发布时间:2024/1/14 10:34:52 | 浏览次数:

目前,软件和硬件制造商越来越多地开发工具,允许用户同时使用更多的模式进行人类行为研究,例如将眼睛跟踪与面部表情分析或脑电图相结合。因此,研究不仅变得更加方便,而且变得更加高效和精确。

 


随着生物传感器研究市场的增长,描述使用两个或多个生物传感器进行研究的最流行术语之一是“多模式研究”,但该术语实际上可以指一些不同的东西,我们在本文中介绍了这些内容,因为它与我们的iMotions软件有关。

 

过去,当研究人员想同时从几个不同的生物传感器收集数据时,他们必须为每个生物传感器或模式使用一个实验室站。这种“一个传感器,一个站”的方法被亲切地戏称为“弗兰肯斯坦实验室”。就像它的同名电影一样,它只有在数据收集和随后的数据分析过程中付出不必要的努力和不便才能活着(!)。对齐时间戳和注释以及处理数据通常必须手动完成,www.win-sensor.site  这损害了研究的准确性和效率。多模式研究软件消除了大多数不便,但在iMotions中,我们几乎完全消除了这些不便。

 

弗兰肯斯坦实验室

有了iMotions,可以用几个生物传感器或模块进行多模式研究,每个单独的硬件连接到一台计算机或实验室站。当我们在iMotions谈论多模态研究软件时,我们的定义是;可以通过一个专用软件将多个生物传感器集成到一台计算机中的软件程序。

 

是什么使多模态在研究中有价值?

除了在一个专用软件环境中工作的便利性和研究效率的显著提高之外,还有一个方面使其变得非常宝贵;这是进行真正深入的以人类为中心的人类行为研究的唯一途径。

 

许多客户从研究之初就选择购买完整的多模式实验室,而其他客户则从较小的规模开始。从一个单一的模块开始,可能有很多原因,其中最主要的是财务,www.win-sensor.site  但与完全多模式工作时所能获得的细微差别相比,它将获得有限的结果。

 

假设你想使用眼动追踪来捕捉受访者的视觉注意力。这很容易做到,但现在你可能不仅想知道他们在看什么,还想知道视觉刺激中的什么可能会引起情绪反应。为此,你需要面部表情分析,它可以告诉你受访者表现出的情绪线索。所以,现在你知道人们在观看视觉刺激时的感受了,但这些感受有多强烈?为了捕捉情绪强度的全貌,你需要测量皮肤的电流反应。通过测量受访者汗腺的皮肤电活动,可以测量受访者在受到刺激时的情绪强度。

 

简言之,你在研究中应用的方式越多,你对受访者的了解就越深。

 


通过将几种生物传感器组合并应用于一个研究问题,您收集的数据将更加细致、信息丰富,最终更有价值。

 

iMotions中的多模式生物传感器研究

如今的行业趋势指向多模式研究成为标准。在iMotions,多模态深深植根于公司的DNA中。自公司成立之初,多模式研究就不是一个流行词,而是我们为现在和未来的研究人员开发软件的哲学的基础部分。这种方法使我们多年来一直处于开发和实施多模式生物传感器集成和多层数据分析的前沿,直到趋势开始朝着这个方向发展。

 

在iMotions软件平台中,多模式设置是通过我们的基础模块CORE进行的标准设置。它与我们提供的所有模式无缝配合,并且它已被开发为与一个、两个或所有生物传感器输入进行通信,无论您的研究设置如何。

 

作为我关于痴呆症患者行为变化的博士论文的一部分,iMotions平台使我们能够同时集成眼睛跟踪、皮肤电流反应和自动面部表情分析,为我们提供每个患者在同一时间点的独特而全面的生物特征数据。此外,它为我们在记忆诊所的多个位置进行临床测试提供了一个易于访问的设置,增强了广泛纳入不同患者群体的可行性。此外,iMotions成功经理的帮助为我们提供了系统和理论驱动的数据分析的适当支持。中高音在上面的照片中,两种模式,VR眼动追踪和GSR,被用来捕捉跳伞者从飞机上跳下的瞬间。如图所示,刺激呈现、多模式数据输入和实时数据可视化使这一研究设置对受过训练的人类行为研究人员和普通人来说都是可破译的。无论技能水平如何,易用性始终是可取的,但我们也认为这是一种完美的方式,可以让那些想要进行多模式研究但经验有限的客户开始使用,但最终不会使用户体验变得更复杂。研究的复杂性应该来自研究设置或规模,而不是所使用的工具。

 

通过实现我们的自定义脚本R笔记本,在进行信号处理和后续数据分析时几乎消除了手动编码的需要。它们提供了用于信号处理的算法的完全透明的文档,直接在UI中为我们所有可用的模态生成可见的度量,甚至允许高级研究人员在R中编辑代码。如果你想更深入地了解我们如何改进数据处理和分析,并在R-Notebooks的帮助下使多模态数据分析成为无缝体验,你可以在这里阅读更多。

 

多模式、多平台的人类行为研究

去年,我们推出了两个新的数据收集工具:在线数据收集和移动数据收集平台。顾名思义,有了这两种工具,数据收集就可以在实验室之外进行,要么在受访者的家中,要么在世界上有受访者的情况下进行。与基于实验室的设置一样,这两个工具也可以多模式工作。在线数据采集依靠受访者的网络摄像头进行眼睛跟踪和面部表情分析,而移动数据采集则依靠智能手表和健身追踪器等可穿戴设备来测量心率等指标。当数据被收集时,它被导入iMotions软件,然后像对待任何其他多模式数据集一样被处理,因为它正是这样。

 
TAG:
打印本页 || 关闭窗口
 上一篇:iMotions用户界面
 下一篇:iMotions基于屏幕的眼动追踪模块