作者丨蛋酱
来源!机器之心
让数字人更接近真人的质感,关键是在头发上下功夫。
近年来,虚拟数字人行业蓬勃发展,各行各业都在推出自己的数字人形象。毫无疑问,高保真度 3D 发型能显著提升虚拟数字人的真实感。与人体的其他部位不同,由于交织在一起的头发结构极其复杂,描述和提取头发结构更具挑战性,这使得只从单一视图中重建高保真度 3D 头发模型极其困难。一般来说,现有的方法是通过两个步骤来解决这个问题:首先从输入图像中提取 2D 估计一个方向图 3D 方向场,然后根据 3D 方向合成头发。但在实践中仍存在一些问题。
基于实践观察,研究人员正在寻找一种完全自动化和高效的头发模型建模方法,可以从具有细粒度特征的单一图像中重建 3D 头发模型(如图所示 1)同时表现出高度的灵活性,比如重建头发模型只需要网络的前向传递。
浙江大学、瑞士苏黎世联邦理工学院和香港城市大学的研究人员提出了这些问题 IRHairNet,实施从粗到精的策略,产生高保真度 3D 方向场。具体来说,他们引入了一个新颖的 voxel-aligned 的隐函数(VIFu)来自粗糙模块 2D 从方向图中提取信息。同时,为了弥补 2D 在方向图中丢失的局部细节中,研究人员利用高分辨率亮度图提取局部特征,并结合精细模块的整体特征进行高保真发型。
有效地从 3D 研究人员介绍了方向场合的头发模型 GrowingNet,一种基于深度学习的头发生长方法,表征的头发生长方法。这是基于一个关键的观察:虽然头发的几何形状和生长方向在整体范围内不同,但它们在特定的局部范围内具有相似的特征。因此,每个局部都可以 3D 方向 patch 提取高级潜在代码,然后训练神经隐函数 (一个解码器) 在这个潜在的代码中生长头发。每一步生长后,以头发末端为中心的新局部 patch 将用于继续生长。训练后,可适用于任何分辨率 3D 定向场。
论文:https://arxiv.org/pdf/2205.04175.pdf
IRHairNet 和 GrowingNet 组成了 NeuralHDHair 核心。本研究的主要贡献包括:
介绍了一种新型的自动单目毛发建模框架,其性能明显优于现有 SOTA 方法;
介绍了从粗到细的毛发建模神经网络(IRHairNet) ,使用新颖的 voxel-aligned 隐函数和亮度映射丰富优质毛发建模的局部细节;
一种基于局部隐函数的新型头发生长络(GrowingNet) ,能有效地生成任何分辨率的头发模型,这种网络比以前的方法实现了一定的数量级改进。
图 2 展示了 NeuralHDHair 的 pipeline。首先计算人像图像 2D 方向图,并提取其亮度图。此外,它们自动对齐到相同的半身参考模型,以获得半身像深度图。然后,这三张照片被反馈给 IRHairNet。
IRHairNet 从单个图像生成高分辨率 3D 头发的几何特征。该网络的输入包括一个 2D 从输入人像图中获得定向图、亮度图和拟合半身深度图。输出是一个 3D 方向字段,每个体素都包含一个局部生长方向和一个 3D 占用字段,其中每个体素表示发丝通过 (1) 或不通过(0)。
GrowingNet 设计用于从 IRHairNet 估计的 3D 定向场和 3D 占用字段有效地生成完整的头发模型 ,其中 3D 占用字段是用来限制头发的生长区域。
详见原论文内容。
在这一部分,研究人员评估了每个算法组件的有效性和必要性 (第 4.1 节),然后将本文的方法与当前的方法相结合 SOTA(第 4.2 节) 比较。补充材料可以找到实施细节和更多实验结果。
研究人员从定性和定量的角度进行了评估 GrowingNet 保真度和效率。首先,合成数据有三组实验:1)传统的头发生长算法,2)没有重叠的潜在潜力 patch 方案的 GrowingNet,3)本文的完整模型。
如图 4 和表 1 与传统的头发生长算法相比,本文 GrowingNet 具有明显的时间消耗优势,在视觉质量上保持相同的生长性能。另外,通过比较图 4 的第三列和第四列,可以看到,如果没有重叠潜在 patch 方案,patch 边界上的头发可能是不连续的,当头发的生长方向急剧变化时,问题就更严重了。但值得注意的是,该方案以稍微降低精度为代价,大大提高了效率。提高效率对人体数字化的方便高效应用具有重要意义。
为了评估 NeuralHDHair 研究人员将其与一些性能相结合 SOTA 方法 [6,28,30,36,40] 对比。其中 Autohair 头发合成是基于数据驱动的, HairNet [40]忽略头发生长过程,实现端到端的头发建模。相比之下,[28,36]实施两步战略,首先估计一步 3D 方向场,然后合成头发。PIFuHD [30]是基于粗到细策略的单目高分辨率 3D 可用于建模方法 3D 头发建模。
如图 6 所示,HairNet 结果看起来不令人满意,但局部细节,甚至整体形状与输入图像中的头发不一致。这是因为这种方法以一种简单而粗糙的方式合成头发,并直接从单个图像中恢复无序的头发。
结果将在这里重建 Autohair[6]和 Saito对比[28]。如图 7 所示,虽然 Autohair 由于数据库中包含的发型有限,可以合成真实结果,但输入图像在结构上不能很好地匹配。另一方面,Saito 缺乏局部细节,形状与输入图像不一致。相比之下,本文方法的结果更好地保持了头发的全局结构和局部细节,同时确保了头发形状的一致性。
PIFuHD [30]和 Dynamic Hair [36]致力于估计高保真度 3D 头发生成真正的发型,头发的几何特征。图 8 展示了两个具有代表性的比较结果。可以看出,PIFuHD 像素级隐函数不能充分描述复杂的头发,导致结果过于光滑,没有局部细节,甚至没有合理的整体结构。Dynamic Hair 可以用较少的细节产生更合理的结果,结果中的头发生长趋势可以很好地匹配输入图像,但许多局部结构细节 (如层次结构) 不能捕捉,尤其是复杂的发型。相比之下,本文的方法可以适应不同的发型,甚至极其复杂的结构,充分利用整体特征和局部细节,产生更多细节的高保真度和高分辨率 3D 头发模型。
本文仅进行学术分享。如有侵权行为,请联系删除。
后台回复:
后台回复:
后台回复:
1.自动驾驶领域的多传感器数据集成技术
2.自动驾驶领域3D点云目标检测全栈学习路线!(单模态 多模态/数据 代码)3.彻底了解视觉三维重建:原理分析、代码解释、优化和改进4.中国第一门面向工业级实战的点云处理课程5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码解释6.彻底理解视觉-惯性-惯性SLAM:基于VINS-Fusion正式开课啦7.彻底了解基础LOAM框架的3D激光SLAM: 从源代码分析到算法优化8.室内外激光彻底分析SLAM关键算法原理、代码和实战(cartographer LOAM LIO-SAM)
9.从零搭建一套结构光3D重建系统[理论+源码+实践]
10.单目深度估计方法:算法梳理与代码实现
11.自动驾驶中的深度学习模型部署实战
12.相机模型与标定(单目+双目+鱼眼)
13.重磅!四旋翼飞行器:算法与实战
14.ROS2从入门到精通:理论与实战
15.国内首个3D缺陷检测教程:理论、源码与实战
扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在
▲长按加微信群或投稿
▲长按关注公众号
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、答疑解惑、助你高效解决问题