资讯详情

Towards spike-based machine intelligence with neuromorphic computing翻译

摘要

在类脑脉冲计算框架的指导下,预计人工智能将通过神经形态计算(即大脑启发的机器智能计算)实现,并减少计算平台的能量需求。这一跨学科领域始于实现生物神经路由的硅电路,但已演变为基于脉冲编码和事件驱动表示的算法的硬件实现。本文总结了算法和硬件在神经形态计算中的发展,并强调了学习和硬件框架的基本知识。以算法-硬件协同设计为重点,讨论了神经形态计算的主要挑战和未来前景。

1.介绍

在这里插入图片描述 在整个历史上,通过模拟大脑的能力创造技术一直是创新的源泉。过去,科学家们争论说,大脑中的信息传输是通过不同的频道和频率发生的,就像无线电一样。今天,科学家们认为大脑就像一台计算机。如今,随着神经网络的发展,计算机在几项认知任务中表现出了非凡的能力,例如,AlphaGo有能力在战略棋盘游戏中击败人类玩家。虽然这种表现确实令人印象深刻,但仍然存在一个关键问题:这类活动涉及的计算成本是多少? 人脑的运作令人印象深刻(例如,它可以同时识别、推理、控制和运动),而且功率预算只接近20W。相比之下,一台标准计算机只1000种不同类型的目标,但大约需要250种W功率。:连通性、结构性和功能性的广泛层次结构,以及时间依赖的神经元和突触功能(图1A)。神经元是大脑计算的基本元素,通过离散的动作电位或脉冲交换或传输信息,突触是记忆和学习的基本存储元素。通过数万亿的突触互连,人脑拥有数十亿个神经元网络。基于脉冲的时间处理可以使大脑稀疏有效地传输信息。研究还表明,灵长类动物的视觉系统被组织成局部互连的分层结构,逐渐将物体的表达形式转化为强大的表达,从而提高了感知能力。 受大脑分层结构和神经突触框架的启发,使用神经网络实现了最佳人工智能。事实上,现代深度学习网络(DLN)本质上,它是通过构建层来表示或转换输入中不同的潜在特征(图11B)。这种神经网络是由基本硅晶体管的硬件计算系统驱动的。大型计算平台中的数字逻辑包括数十亿个集成在单个硅模中的晶体管。这让人想起大脑的分层组织,以层次结构的形式排列各种基于硅的计算部件,允许高效的数据交换(见图1C)。 。一些关键差异包括:(1)计算机中计算(处理单元)和存储(存储单元)的分离与大脑中发现的计算(神经元)和存储(突触)共同存在的机制相反;(2)目前大脑中三维空间的高连通性超出了硅技术的范围,由于硅技术受二维屏幕连接和有限数量的互连金属层和路由协议的限制;(3)晶体管在很大程度上被用作构建确定性布尔(数字)电路的开关,而不是大脑中基于脉冲的事件驱动计算。然而,硅计算平台(例如,图形处理单元(GPU)云服务器)一直是深度学习革命的有效因素之一。然而,硅计算平台(例如,图形处理单元)(GPU)云服务器)一直是深度学习革命的有效因素之一。然而,阻止它ubiquitous intelligence实现的主要瓶颈是巨大的能量和吞吐量要求。例如,当使用2时,在嵌入式智能玻璃处理器上运行深层网络.1 W h电池电量(参考文献8)将在25分钟内完全耗尽。 在大脑的指导下,通过脉冲驱动通信实现神经元和突触计算的硬件系统可能会使能量高效的机器智能化。神经形态计算起源于20世纪80年代,利用晶体管模仿生物神经元和突触功能,并迅速发展为涵盖计算的事件驱动力。最后,在2000年代初,这类研究促进了大规模神经芯片的出现。目前,算法设计师正在积极探索脉冲驱动计算的优势和局限性(具体来说,脉冲学习),以驱动可扩展和高效能量的脉冲神经网络(SNN)。。 我们首先讨论了智能(或算法),包括不同的学习机制(基于脉冲或梯度下降计划没有监督和监督),并突出了使用时间和空间事件的需要。大多数讨论都集中在视觉相关任务(如图像识别和检测)上。 然后,我们研究了包括模拟计算和数字神经形态系统在内的计算(或硬件)von Neumann(后,我们讨论了算法 - 算法的弹性可以用来抵消硬件的脆弱性,从而实现能效和准确性之间的最佳平衡。

2.Algorithmic outlook

2.1 Spiking neural networks

来自Maass基于神经元的功能,将神经网络分为三代。第一代被称为McCulloch–Pitt感知,执行阈值操作,获取数字 ( 1 , 0 ) (1,0) (1,0)输出。第二代(例如,基础sigmoid单元或ReLU将单元添加到神经元中,以评估一组连续输出值。第一代网络和第二代网络之间的这种非线性升级对神经网络的缩放起到了关键作用,使其能够应用到更复杂以及更深的情况。当前的DLN基于第二代神经元,在输入和输出之间有多个隐藏层。事实上,由于其连续的神经元功能,这些模型支持基于梯度的反向传播学习,这是今天的训练DLN标准算法。主要使用第三代网络integrate-and-fire脉冲神经元的类型,通过脉冲交换信息(图3)。 第二代网络和第三代网络最重要的区别在于信息处理的本质。上一代使用实值计算(例如信号的幅度),而SNN则使用信号的时间(或脉冲)来处理信息。脉冲本质上是二进制事件,要么是0或1。如图3a在给定的时间间隔内,SNN神经元只有在接收或发射脉冲时才活跃,因此它是由事件驱动的,可以提高能量利用效率。没有经历过任何事件SNN单位闲置。这与DLN相反,DLN所有单元都处于活跃状态,与输入值或输出值无关。此外,SNN数学点积操作中的输入为1或0 ∑ i V i × w i \sum_iV_i\times w_i ∑iV i ​×wi​(图3a中详细介绍),转换为具有较少计算量的求和操作。   目前已经提出了不同的脉冲神经元模型,例如leaky integrate-and-fire(LIF)(图3B)和 Hodgkin–Huxley,以描述在不同的生物效率水平上脉冲的产生。同样,对于突触可塑性,已经提出了诸如Hebbian和non-Hebbian之类的方案。突触可塑性 (突触权重的调节,转化为SNN中的学习) - 依赖于前后突触脉冲的相对时间(图3c)。一个合适的脉冲神经元模型(即具有适当的突触可塑性,又同时能利用基于事件的数据驱动更新)是神经形态工程师的主要目标,其可以实现计算高效的智能应用,例如识别和推理等。

2.2 Exploiting event-based data with SNNs

我们认为,SNN的最终优势来自它们完全利用基于时空事件的信息的能力。传感器,可以实时记录活动的动态变化。这种动态感知数据可以与SNN的时间处理能力相结合,以实现极低的计算功率。实际上,与传统上DLN使用的框架驱动方法相比,使用时间作为额外的输入维度,SNN以稀疏的方式记录了有价值的信息(见图3)。这可以导致SNN框架的高效实现,同时计算光学视觉流或立体视觉以实现深度感知,从而结合基于脉冲的学习规则,可以产生高效的训练。机器人社区的研究人员已经证明了使用基于事件的传感器进行跟踪和手势识别等应用的好处。但是,这些应用中的大多数都使用DLN执行识别。   ,这些算法期望能够有效地利用脉冲神经元的时间信息。实际上,就准确性而言,在大多数学习任务中,SNN仍然落后于第二代深度学习。显然,脉冲神经元具有不连续的函数,并且发出的离散脉冲式不可微分的(见图3);因此,他们无法使用对常规神经网络训练至关重要的梯度下降反向传播技术。   。尽管理想的情况要求使用时间信息的SNN的输入是脉冲信号,但仍然在现有的静态图像数据集(例如CIFAR或ImageNet)上评估了SNN训练算法的性能。这种基于静态框架的数据通过使用适当的编码技术(例如 rate coding或rank-order coding码)被转换为脉冲信号(见图3d)。尽管编码技术使我们能够评估SNN在传统基准数据集上的性能,但我们需要超越静态图像分类的任务。。目前,我们既没有良好的基准数据集,也没有评估SNN在现实世界的性能的指标。对收集适当的基准数据集的更多研究,例如动态视觉传感器数据或驾驶和导航实例,至关重要。   在这里,我们将第二代连续神经网络称为DLN,以将它们与基于脉冲的计算区分开。我们注意到,在执行脉冲神经元函数时,SNN也可以在具有卷积层次结构的深度体系结构上实现。

3.Learning in SNNs

3.1 Conversion-based approaches

。本质上,使用权重缩放和归一化方法将经过训练的DLN转换为SNN,以将连续非线性输出神经元的特性与泄漏时间常数,不应期,膜阈值和其他脉冲神经元功能相匹配。迄今为止,这种方法能够在图像分类中(包括在ImageNet数据集上)中产生和DLN可比的精度。对于基于转换的方法,其优势是消除了时域中的训练负担。使用可用框架(例如TensorFlow)对基于框架的数据进行了DLN的训练,该框架提供了与训练相关的灵活性。转换需要在基于事件的数据(通过对静态图像数据集进行rate coding获得)上解析训练好的DLN,然后应用简单的转换。但是,这种方法具有固有的局限性。非线性神经元的输出值(例如,使用tanh 或softmax 函数)可以同时获得正值和负值,而脉冲神经元的速率只能获取正值。因此,负值将始终被丢弃,从而导致转换后的SNN准确性下降。转换方法的另一个问题是如何在每一层获得最佳的发射速率,而不会出现任何性能损失。最近的工作提出了确定最佳发射速率的实用解决方案,在训练DLN期间引入了其他约束(例如噪声或leaky ReLU),以更好地匹配脉冲神经元的发射速率。如今,在图像识别任务中,转换的方法产生了与DLN分类性能相当的的精度。

3.2 Spike-based approaches

  在基于脉冲的方法中,使用时间信息对SNN进行了训练,因此在总的脉冲动态过程提供了稀疏性和高效率的优势。研究人员采用了两个主要方向:无监督(无标注数据的培训)和有监督(有标注数据的训练)。   ReSuMe和tempotron是有监督学习的早期工作,其在使用spike-timing-dependent plasticity(STDP)的单层SNN中进行简单的基于脉冲的学习,以实现分类。从那时起,研究工作一直致力于整合类似全局反向传播的基于脉冲的误差梯度下降,以在多层SNN中使用有监督学习。大多数依赖反向传播的工作为脉冲神经元函数估计一个可微分的近似函数,从而可以执行梯度下降(图4A)。 SpikeProp和相关变体通过将目标脉冲训练固定在输出层中,从而得出了SNN的反向传播规则。最近的工作在实值膜电位上执行随机梯度下降,其目标是正确的输出神经元将随机发射更多的脉冲(而不是更精确的目标脉冲训练)。这些方法已在小规模的图像识别任务(例如MNIST)中获得了深度卷积SNN的最新结果。。   另一方面,受神经科学以及硬件高效作为主要目标的启发,使用基于局部STDP学习规则的无监督SNN训练也引起了人们的极大兴趣。 使用局部学习(正如我们将在硬件讨论中稍后看到的那样),有更大的机会将存储(突触存储)和计算(神经元输出)结合地更加紧密。事实证明,这种体系结构更像大脑,并且在芯片实现上适合能量高效。Diehl et al.是第一个在SNN上展示完全无监督学习的工作之一,并达到与MNIST数据库中的深度学习相当的精度(图4b)。   但是,将局部学习方法扩展到多层以应对复杂的任务仍然是一个挑战。随着网络变得更深,神经元的脉冲概率(或发射速率)降低,我们称其为“‘vanishing forward-spike propagation”。为了避免这种情况,大多数工作以层次的方式先进行基于局部脉冲的学习,然后进行全局反向传播学习,从而训练多层SNN(包括卷积SNN)已进行分类。 这种局部加全局的方法虽然很有希望,但在分类准确性方面仍然落后于基于转换的方法。此外,最近的工作表明,通过反馈深度SNN连接的误差信号随机投影确实可以改善学习。这种基于反馈学习的方法需要进一步研究,以估计其在大规模任务上的有效性。

3.3 Implications for learning in the binary regime

我们可以仅使用二元位值(1/0)而不是需要额外存储的16-或32位浮点值,以获得极低的功率和高效计算。实际上,在算法级别上,以概率的方式学习(其中神经元随机脉冲和权重具有低精度变换)正在被研究以获取具有少量参数和计算操作的网络。二元和三元DLN(神经元输出和权重仅采用低精度值 − 1 -1 −1、 0 0 0和 + 1 +1 +1)被提出,并在大规模分类任务上产生良好性能。由于基于二元脉冲的处理,SNN已经具有计算优势。此外,LIF神经元的随机性可以改善网络对外部噪声的鲁棒性(例如,来自硬件的噪声输入或权重参数噪声)。另外,我们是否可以使用适当的学习方法来处理这种SNN时间架构,并将权重训练压缩到二元方案以得到最小的精度损失,这一观点还有待观察。

4.Other underexplored directions

4.1 Beyond vision tasks

到目前为止,我们已经提出了在分类任务具有和DLN可比结果的方法。首先对超出感知和静态图像推理的任务又如何呢?SNN为处理序列数据提供了一个非常好的机会。但是,很少有工作能证明SNN在自然语言处理任务中的有效性。另外SNN的推理和决策如何?深度学习的研究人员大量倾向于强化学习算法,该算法通过实时与环境进行互动,从而促进模型学习。使用SNN的强化学习还没有得到充分验证。当前对SNN的研究工作(尤其是在训练算法领域)表明,SNN中的巨大挑战是如何与深度学习的性能相匹配。

4.2 Lifelong learning and learning with fewer data

深度学习模型在持续学习时会遭受灾难性遗忘的问题。例如,当一个在任务A进行训练的网络后来接触到任务B时,它忘记了有关任务A的所有内容,并仅记得任务B。像人类一样在动态变化的环境中建立终身学习,这吸引了研究界的大量关注。这也是深度学习研究的新兴方向,。值得探索的类似方向是 one-shot学习。使用更少的数据学习是最终的挑战,这可以说是SNN可以比深度学习更优的原因。SNN中无监督的学习只需使用有标注训练数据中的一小部分,以执行数据高效的训练。

4.3 Forging links with neuroscience

。例如,Masquelier et al. 采用了带有时间编码的STDP来模仿视觉皮层路径,并发现这种学习会导致神经元在图像的不同视觉方面具有特征选择能力(即不同的神经元学习不同的特征),从而导致特征的卷积层次结构。同样,通过将树突连接添加为附加的超参数(用户定义的设计参数),将树突学习和结构可塑性结合起来,以改善基于脉冲的学习。SNN领域域中的一个互补工作是液态机(LSM)。 LSM使用非结构化的,随机连接的循环网络与简单的线性读取配对。具有脉冲动力学的这种框架对各种序列识别任务显示出令人惊讶的成功程度,但是将它们实施到更复杂和大规模的任务仍然是一个开放的问题。

标签: 互补晶体管怎么匹配1a功率晶体管

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台