NeurIPS-2020-implicit-neural-representations-with-periodic-activation-functions-Paper
1 摘要
\quad 神经网络参数化信号表示已经成为一个强大的例子,提供了许多比传统表示更有可能的好处。然而,目前用于这种隐式神经表示的网络结构,它们也,空间和时间导数是微分方程隐含定义的信号所必需的。我们建议,证明这些被称为正弦表示网络或SIREN该网络非常适合表示复杂的自然信号及其衍生信号。 \quad 我们分析了SIREN的激活统计学,提出了一个原则性的初始化方案,并演示了及其衍生表示。此外,我们还展示了如何使用它SIREN解决具有挑战性的边值问题,如特定的边值问题Eikonal泊松方程(产生符号距离函数)Helmholtz方程和波动方程。SIREN结合超网络学习警报函数空间的先验。所有应用程序的建议方法和视频概述请参考项目网站。
\quad 。泛函C的输入是空间坐标或时空坐标x,Φ由神经网络参数化,x映射成其他量,同时满足(1)的约束。 \quad 因此,Φ由C建立的关系隐式定义,我们指的是神经网络-可以参数化的隐式定义函数,称为。
个人理解,函数 Φ ( x ) \Phi\left(x\right) Φ(x)和 x x x不能用显式表示成 y = k x y=kx y=kx但可以通过函数函数(泛函)的形式写成显式关系,如公式(1)。
\quad 这种方法可以用于大量的科学问题。正如我们在本文中所示,跨科学领域的各种问题都属于这种形式,如使用许多不同类型的离散信号建模在图像、视频和音频处理中,通过符号距离函数[1-4]学习三维形状表示,并更一般地解决边值问题,如泊松方程、海姆霍兹方程或波动方程。 \quad 与其他方法相比,连续参数化提供了一些好处,如基于离散网格的表示,例如,因为的,因此它可以比离散表示更有效地,使其能够建模但。作为一个例子,我们展示了它SIRE架构如何通过仅使用几百KB的网络来表示复杂的3D形状,而相同数据集的原始网格表示需要数百MB。 \quad 意味着可以通过分析,例如使用自动微分,这再次使这些模型独立于传统的网格分辨率。最后,通过表现良好的导数,隐式神经表示可以为等逆问题提供新的工具箱 \quad 由于这些原因,隐式神经表征在过去一年中引起了极大的研究兴趣(第2节)。这些最新的表示大多建立在在底层信号中表示
2 相关工作
\quad
\quad
3 公式
\quad 为了解决式(1)定义的隐式函数问题,我们认为这是一个可行性问题,函数Φ要满足一系列的约束C,每一个约束都与Φ或其导数有关, \quad 这个问题可以用loss来解决,惩罚每个约束在其域Ωm内的偏离。 \quad 其中,指示函数 1 Ω m ( x ) 1_{\Omega_{m}}\left(x\right) 1Ωm(x),当 x ∈ Ω m x\in\Omega_{m} x∈Ωm时,值为1,反之为0。实际上,损失函数是通过采样Ω来实现的。
\quad 数据集 D = { ( x i , a i ( x ) ) } i D=\left\{\left(x_i,a_i\left(x\right)\right)\right\}_i D={ (xi,ai(x))}i是一系列坐标 x i ∈ Ω x_i\in\Omega xi∈Ω的元组以及出现在约束中的 a i ( x ) a_i\left(x\right) ai(x)中的样本。因此,式(3)是强制为从数据集D中采样的坐标 x i x_i xi,通过 \quad 实际上,数据集D在训练过程中是动态采样的,当样本数增长时能够更好地逼近L,作为蒙特卡洛积分。这一部分暂时不懂
3.1 隐式神经表示的周期激活函数
\quad 我们提出了SIREN,一种用于隐式神经表示的简单神经网络架构,使用正弦作为周期激活函数: \quad 这里, ϕ i : R M i ↦ R N i \phi_i:\mathbb{R}^{M_i}\mapsto\mathbb{R}^{N_i} ϕi:RMi↦RNi是第i层神经网络。包含了由权重矩阵 W i ∈ R N i × M i \bold{W}_i\in\mathbb{R}^{N_i\times M_i} Wi∈RNi×Mi和偏置 b i ∈ R N i \bold{b}_i\in\mathbb{R}^{N_i} bi∈RNi以及输入 x i ∈ R M i \bold{x}_i\in\mathbb{R}^{M_i} xi∈RMi定义的仿射变换,在仿射变换后,再施加正弦这种非线性操作。 \quad 有趣的是,对于一个SIREN的任何微分都是它自己的一个分量,由于sin函数的微分是cos(看做移相后的sin)。因此,
损失函数 C=0就是约束,就是隐式关系,而Loss就是下降为0,因此两者等价。
\quad 在图1中,我们用神经网络(用不同的激活函数)拟合 Φ θ \Phi_\theta Φθ。我们仅仅通过图像值来监督这个实验,并且把梯度 ∇ Φ \nabla\Phi ∇Φ和拉普拉斯算子 Δ Φ \Delta\Phi ΔΦ可视化,只有两种方法表现得还可以,带有位置编码(P.E.)的ReLU网络和我们的SIREN,精确地表示了原图 f ( x ) f\left(\bold{x}\right) f(x),SIREN是唯一能够完全表示图像(信号)的微分的。此外,我们运行了一个劲简单的实验,我们拟合了一个300帧的视频,用512*512像素分辨率以及ReLU和SIREN MLPs。如图2所示,我们的方法成功表示了图像,平均峰值信噪比接近30 dB,比ReLU高了5dB。我们在补充材料中展示了音频信息的处理。
3.2 激活、频率和原则性初始化方案的分布
\quad 我们提出了一种有效训练SIREN所需的原则性初始化方案。在这里非正式介绍的同时,我们在补充材料中讨论了进一步的细节、证明和实证验证。我们的初始化方案的关键思想是