作者存档: yuening.shi

我手中的全息图:可感知的沉浸式增强现实中的三维可视化交互探索效率如何?(The Hologram in My Hand: How Effective is Interactive Exploration of 3D Visualizations in Immersive Tangible Augmented Reality?)

随着新型展示和交互技术的发展,信息可视化已经不再局限于传统的桌面应用。AR,VR领域日新月异,越来越多的可穿戴设备能够支持多自由度交互和沉浸式展示,为人们身临其境地和数据交互,深入理解数据对象提供了很大便利。对于一些三维视图,传统的桌面可视化在展示性能上仍有不足。我们很自然地想到结合这两种技术,让用户使用头戴式设备在沉浸式环境下进行三维数据探索,但这同时也引起我们产生一个疑问——用户和真实世界中全息图进行交互探索,和传统可视化相比是否是一种更有效率的策略?这篇文章[1]给出了一个有关桌面三维可视化、平板电脑中的AR可视化、和头戴式设备中的沉浸式可视化在完成三维探索任务性能上的研究,通过分别完成三维点云中的几个基本问题,从而比较三种方式完成任务效率等方面的差异。

继续阅读 »

现场决策中异构数据异常检测的沉浸式可视化(Immersive Visualization for Abnormal Detection in Heterogeneous Data for On-site Decision Making)

随着混合现实的发展,HoloLens等头显设备为我们提供的在现实世界中探索数据的能力对可视化交互和分析越发重要。对于安全可视化,混合现实可以产生桌面可视化难以实现的效果,能够满足无需上下文转换的数据探索和物理操作,并支持多人协同探索,在许多安全领域应用中有实际意义,涉及范围涵盖从基础设施安全和应急响应到对可疑行为的日常监控。研究如何利用MR在真实物理环境中有效地可视化抽象数据并利用声音和姿势与之交互具有创新的意义。本文[1]使用VAST Challenge 2016的数据集,以复杂的多维时序传感器数据中隐含的安全事件作为研究对象,提出了异常检测的方法,设计了一套沉浸式可视分析系统,能够将二维图表信息和三维平面图信息紧密结合,并提供了语音、凝视和手势等交互。

继续阅读 »

VISTILES: 通过协同定位移动设备的协调组合进行可视化数据探索(VISTILES: Coordinating and Combining Co-located Mobile Devices for Visual Data Exploration)

随着数据探索任务的日益复杂,合作探索协调多视图(Coordinated & Multiple Views, CMV)已成为信息可视化中主要关注的内容。移动设备(Mobile Device)相较传统桌面可视化而言,更能提供动态、灵活、用户指定的交互界面,便于通过多设备进行协同探索。这篇文章提供了VISTILES[1]框架可以支持用户通过拼接组合移动设备对复杂数据进行多视图探索,并可利用含义丰富的空间布局加深用户对多变量数据的理解。

继续阅读 »

网络连通性的沉浸式协同分析:CAVE还是头戴式设备?(Immersive Collaborative Analysis of Network Connectivity: CAVE-style or Head-Mounted Display?)

传统的CAVE沉浸式虚拟现实环境,在可视化协同分析中可以有效地帮助多用户理解数据,分享意见,对于多领域的合作者有重要意义,在科学可视化领域有很多相关研究,而其缺点是造价昂贵。随着近年来头戴式设备(HMDs)技术的迅猛发展,诸如Oculus Rift,HTC Vive等头戴式设备的价格有所降低,使它们成为了一种更加经济的替代可能。由此产生了一个问题,在沉浸式可视化的协同分析中,我们是否还需要如此高昂的CAVE设备呢?

继续阅读 »