第 27 节 类脑芯片的实现(第1页)

SNN 的硬件实现可以或多或少地模拟类似生物的神经元和突触模型,这可能有助于获得更多关于大脑运作的知识。用 SNN 也可以完成深度学习应用,但是由于 SNN 的时间离散性,如在传统计算机上进行模拟将会花费大量时间。为此,把 SNN 用 ASIC 芯片或 FPGA 来实现是一个比较可行的方法,可以利用 SNN 的属性来降低功耗并提高推理速度,尤其是把神经元和突触做成硬件较友好的模型(如简单的 IF 神经元和恒定权重)。

类脑芯片是由一个或几个神经核组成的芯片。神经核集成了处理神经元膜电位的处理单元、存储突触值和神经元状态的存储器、用于接收和发送脉冲的输入和输出接口及控制电路。针对超大规模应用的设计通常会实现大量的神经核,以在芯片级实现最大程度的并行化。

SNN 实现的主要特点在于将操作简化为加法器和比较器,也就是说,如果是数字实现,只需要加法器,而不需要深度学习 AI 芯片中最主要的核心——MAC 运算(见第 3 章),因此可以大大降低计算成本。由于脉冲是二进制的,并且不需要在神经元之间传输模拟值,因此可以使用低功耗的比较器电路代替放大器。因此,电路构造能够变得简单并且使低功耗成为可能。但是,由于信号时间是 SNN 计算中最基本的机制考虑,因此必须存储定时信息(用于片上学习、漏电和不应期机制)和神经元状态变量(膜电位和阈值),这就需要辅助存储器。由于可能有大量的处理单元和连接,类脑芯片在一些网络架构中会使权重访问迅速成为瓶颈。解决这一瓶颈的方法之一是采用存内计算(见第 7 章)及新型非易失性存储器。

如果使用一般基于 SRAM 的神经形态器件,在关闭电源后,存储在 SRAM 中的突触权重就会消失。另外,执行任务之前的学习常常是在脱机系统中使用与器件分开的普通计算机执行的,执行任务时仅仅将学习结果加载到 SRAM 中。为了克服这些挑战,很多研究人员正考虑采用非易失性存储器,把相变存储器和阻变存储器之类的存储器件作为突触。

目前存内计算技术正在受到人们的广泛重视。存内计算的总体思想就是尽可能把存储器和处理器放在一起,以降低每次到存储器进行数据存取所消耗的能量。这其实也是生物神经系统除了高度互连和脉冲特性之外的另一个特征。类脑芯片架构也越来越多地引入了这种方法,即每个处理器都配置很小的本地存储容量。这种配置类似
(本章节未完结,点击下一页翻页继续阅读)