PacificVis 2019 – Day 2

4月24日是 PacificVis 2019 正式日程的第一天,首先进行的是大会的开幕式。本次大会的会议主席教授向各位与会者表示热烈的欢迎,随后介绍了本次会议的参与情况。今年是第十二届 PacificVis 会议,接着,论文、短文的主席分别对各自部分的参与、评审以及接收情况进行了介绍。本次会议共接受全文24篇,短文12篇。实验室洪帆同学的论文《DNN-VolVis: Interactive Volume Visualization Supported by Deep Neural Network》被全文接收。

图1 PacificVis 2019 会场

图2 PacificVis 2019 论文接收情况

今天的会议日程包括一个主题演讲和三个论文报告环节。

Keynote:  An end-to-end in situ data processing and analytics workflow

今天上午,来自俄亥俄州立大学的沈汉威教授为大家带来题为《An end-to-end in situ data processing and analytics workflow》的主题演讲。百亿亿次级浮点运算(exaFLOPs)超级计算机已经成为现实,每个处理器的核的数目将会提高,而每个核的存储将会下降。存储器和 I/O 设备的速度和尺寸无法跟上计算能力的增长速度。在这种情况下,数据转移所需的花费将会提高。对科学家来说,存储和分析仿真数据将会变得更困难,即使只是针对其中的一小部分。

图3 基于采样的体数据渲染事后分析

In situ visualization 是指在仿真运行中生成可视化。其特征有:数据是暂态的,只在短时间内有效可用;主要是 batch mode 的数据处理,无法进行可交互的数据探索;需要预先知道哪些东西是需要的,显著的信息可能不会被发现;可以探索的便量有限,无法产生精密复杂的可视化等。In situ visualization 的策略包括:从预先选定的变量中生成图片(如 Catalyst,Libsim);从一大批图片中产生的数据集(如 cinema project);具有可探索的内容的可视化(如 Explorable Images);特征提取(如 Contour Trees,flowlines);数据约简,通过紧凑的数据展示或者代表性的样本或者时间来实现(如 compression,key time steps)。

In situ visualization 的软件需要考虑诸多问题,例如前拷贝和深拷贝,数据同步与通信,自动或者人工的软件控制,输出的数据类型等。沈教授介绍了 Distribution based in situ analytics,其方法包括:Probability Distributions collected as in situ time 和 Distribution-based post-hoc analysis;该方法能够达到以下目标:保留重要的数据特征、保留 field values 和 feature locations ;允许最有标准的可视化能力的事后分析(post hoc analysis with standard visualization capabilities)、允许对不确定性质量的定量分析(Quantitative analysis of quality of uncertainty)、允许可交互的数据驱动的查询(Interactive data driven queries);通过创新的变量设置预测仿真结果。

图4 基于分布的原位分析

沈教授还介绍了未来的研究方向,其一是 ML for In Situ Vis,比如用机器学习来辅助事后的数据和特征重建,以及可视化以及仿真变量的选取等;其二是 Vis for ML,比如利用可视化来辅助隐藏空间的分析等。

Session 1: Multiple Views and Virtual Reality

第一个 Paper Session 是 Multiple Views and Virtual Reality,包括四篇长文和一篇短文。第一篇文章是《CorFish: Coordinating Emphasis Across Multiple Views Using Spatial Distortion》,来自法国波尔多大学的 Gaëlle Richer 介绍提出使用空间失真的方法在多视图的背景下表示相同实体的视图之间的协调,并且容易适应各种可视化形式。

图5 并列多视图

 

第二篇文章是《Collaborative Visual Analysis with Multi-level Information Sharing Using a Wall-Size Display and See-Through HMDs》,来自加州大学戴维斯分校的孙晨辰通过研究将光学透视头戴式显示器(Optical See-Through Head-Mounted Displays, OST-HMD)与壁式显示器结合在一起,以同步协同定位的协作设置提供敏感信息。 他们通过原型系统进行用户研究,以观察这种独特设置下的协作风格。

图6 孙晨辰在实验室进行实验

接下里,来自俄亥俄州立大学的程莉介绍了《Object-in-Hand Feature Displacement with Physically-Based Deformation》,她们提出了一个遵循手头隐喻(object-in-hand metaphor)的变形系统,利用触摸屏通过手指直接操纵数据的形状,用户可以拖动数据功能并将其与手指一起移动。

图7 使用手指进行拖拽

来自德国奥托冯格里克大学的 Florian Heinrich介绍了《Comparison of Projective Augmented Reality Concepts to Support Medical Needle Insertion》,他们使用投影 AR 设置,通过用户研究对基于现有方法的三个导航概念进行了比较。 每个概念都实现了三种不同尺度的用于精确度到颜色的映射(accuracy-to-color mapping)和两种导航指示器缩放方法。 要求参与者对所得到的18个原型进行模拟针插入任务。 测量和分析插入角度和插入深度精度,以及任务完成时间和参与者的主观感知任务难度。 结果清楚显示了跨变量的可视化概念的排名。 对于颜色和指示符缩放因子,获得了较不一致的结果。

图8 对三个可视化导航概念进行了比较

最后,来自德国康斯坦茨大学的 Sabrina Jaeger 介绍了 Note,《Challenges for Brain Data Analysis in VR Environments》。他们构建了一个沉浸式虚拟现实环境的原型来探索设计空间,并研究如何通过各种设计选择支持大脑数据分析。 他们的环境可用于研究不同可视化和大脑数据表示组合的影响,例如网络布局,解剖映射或时间序列。 作为一项长期目标,他们的目标是帮助神经科学家更好地了解大脑功能和障碍。

图9 实验过程中的AR环境

 

Session 2: Graphs and Plots

下午的第一个 Paper Session 是 Graphs and Plots,也包括四篇长文和一篇短文。来自犹他大学的 Alex Bigalow 介绍了《Jacob’s Ladder: The User Implications of Leveraging Graph Pivots》,他们将一个子图提取到两种操作器中, 枢轴(pivots)和过滤器(filters)这种方法带来的视觉方面复杂度与图的大小无关。并且预测用户是否有超出当前步骤的意图,他们还提出了一系列可以从用户的角度揭示数据语义的方式,以及如何利用这些信息来创建自适应的数据抽象。

图10 枢轴视图

接下来,来自芬兰 TU Wien 的 Renata 介绍了对散点图的改进的方法,《Relaxing Dense Scatter Plots with Pixel-Based Mappings》。散点图是用于可视化双变量数据的最常用技术,但散点图仍然面临一个主要问题,大而密集的数据通常通过使用密度图来解决。可以采用合适的基于像素的技术来有效地填充绘图空间,从而提供数据主题或群集的数量的额外信息。这篇文章使用基于像素的空间填充映射来改善密集散点图的显示。这篇文章提出的方法可以更好地利用空间,同时避免数据重叠,优化空间覆盖。

图11 使用散点图和像素空间相结合

然后,来自康斯坦茨大学的 Jochen 介绍了一种使用 stipple 来表示二维数据的技术,《Stippling of 2D Scalar Fields 》。他首先概括了Linde-Buzo-Grey的 stipple 算法,以编码连续和离散的2D数据。这种修改提供了对最终点画分布的更多控制,以便将附加信息编码到表示中。他们展示了基于局部调整点画 Principal 曲线是用于总结大散点图的长期且众所周知的方法。 良好的Principal曲线对于大散点图来说可能很难产生。 他们提出了结合基于点画的渐变和轮廓同时评估数据的整体结构,同时保留重要的局部细节。

图12 简化后的观察效果

来自澳大利亚的 ciara 的 《The Role of Working Memory Capacity in Graph Reading Performance》对人类记忆和图形理解的关系进行研究。人类在记忆中处理信息,不同的人有不同记忆容量。 因此了解内存容量可能对图理解产生重要影响。 他们进行了一项用户研究,调查工作记忆容量对图形阅读任务的影响。 46名大学生参加了这项研究,他们使用不同复杂程度的100幅图形绘图执行图形阅读任务。 测量并记录他们的工作记忆容量和任务准确性和时间。结果表明记忆容量是性能准确性的重要原因,但不影响响应时间。 最后一篇文章是《Scatterplot Summarization by Constructing Fast and Robust Principal Graphs from Skeletons》,Principal曲线是用于总结大散点图的长期且众所周知的方法。是局部通过散点图数据中间的自洽曲线。针对大散点图计算对噪声鲁棒的principal曲线是困难的。这篇文章提出了一种快速而稳健的方法来计算Principal曲线。与其它方法相比,该方法在可扩展性和鲁棒性方面较优。

图13 关于 Scatterplot 的总结

Session 3: Evaluation (Understanding Users and Their Behavior)

今天的最后一个 Paper Session 是 Understanding Users and Their Behavior,包括四篇长文和一篇短文。来自巴西坎皮纳格兰德联邦大学的 Luiz Augusto de Macêdo Morais 首先给大家介绍了 《Defamiliarization, Representation Granularity, and User Experience: a Qualitative Study with Two Situated Visualizations》,这篇文章通过两个不同的 “Situated Visualization” 说明了不熟悉的、细粒度的可视化形式更能让人印象深刻。

图14 来自巴西坎皮纳格兰德联邦大学 Luiz Augusto de Macêdo Morais 讲解其中的一种可视化形式

接下来是来自英国斯旺西大学的 Ricardo Colasanti 的《Emoji and Chernoff – A Fine Balancing Act or are we Biased?》,这篇文章通过比较 Emoji,Chernoff Face 和星状图三种 glyph的可视化形式,说明了使用  Emoji 进行可视化的有效性。

图15 三种不同 Glyph 形式的比较

紧接着,来自浙江大学的陆俊华的文章 《Visual Analytics of Dynamic Interplay Between Behaviors in MMORPGs》提出了一个新的方法,BeXplorer,来分析玩家交流的动态变化以及相互之间的影响。接下来是一篇短文,是来自澳大利亚蒙纳士大学的 Yalong Yang 的《What-Why Analysis of Expert Interviews: Analysing Geographically-Embedded Flow Data》,他通过研究分析了3个不同层级的地理嵌入信息流数据的可视化方法。

图16 BeXplorer 分析流程

图17 来自澳大利亚蒙纳士大学的 Yalong Yang 解释地理嵌入信息流数据的可视化

最后,是来自日本京都大学的 Nozomi Aoyama 介绍了《User Evaluation of Group-in-a-box Variants》,通过比较四种不同的 Group-in-a-box 可视化形式,使用基于眼追踪和用户调查的方法来探究哪种方式最佳。

图18 关于 Group-in-a-box 可视化方式的总结

 

 

评论关闭。