
近日,北京大学及美国马里兰大学的学者在期刊IEEE Transactions on Visualization and Computer Graphics上发表了题目为SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction 的学术论文。在研究过程中运用眼球追踪的相关理论,并采用了七鑫易维VR眼动分析系统采集用户注视点信息。
近日,北京大学及美国马里兰大学的学者在期刊 IEEE Transactions on Visualization and Computer Graphics 上发表了题目为 SGaze: A>
研究者们建立了一种创新型数据驱动的眼-头协调模型,该模型可在无外部硬件或眼动仪的条件下,用于沉浸式高清显示虚拟现实 (Virtual Reality,简称 VR) 头盔中实时预测用户注视点,并将其命名为「SGaze」。研究者采用七鑫易维 VR 眼动分析系统收集用户在不同亮度条件下 VR 场景中的浏览情况,随后记录数据并进行统计,探知在一定范围内注视点位置与头部旋转速度之间存在线性关系。随后「SGaze」模拟出头动与眼动之间的时间相关函数,并实现实时注视点预测。

上图展示了在不同 VR 场景测试时的注视点预测结果,下面一行图片对应上一行为放大版。在每个场景中,眼睛实际注视点用绿色的十字标记,蓝色的十字表示数据均值的预测结果,红色的十字代表模型的预测结果。

七鑫易维 VR 眼动分析系统为 VR 环境中记录眼动数据提供支持,可以提供 3D 内容创建服务及美工模型导入 3D 引擎服务,为研究人员提供了更加丰富的实验设计方式和途径。实验过程中,PC 端屏幕可实时监控 VR 屏幕上的内容。此外还可提供瞳孔半径、瞳孔位置、眼睑距离、注视深度等数据接口和功能,适用于 VR 眼动数据分析等需要更多眼部特征数据的商业应用与学术研究。
随着 5G 技术的日益成熟,眼球追踪与 XR 行业的融合创新将为专家学者提供更加方便的实验条件,有助于专家学者在学术研究上实现更大突破。同时,七鑫易维为鼓励研究者采用先进的眼动跟踪设备进行研究,制定了论文奖励制度,对论文中声明使用七鑫易维产品及服务的研究者,按照一定标准予以奖励。七鑫易维期待眼球追踪技术可以帮助更多各领域学者完成研究。