IEDM论文巡礼:新兴半导体器件将成为AI支柱

来源:内容来自公众号半导体行业观察(ID:icbank),谢谢!

IEDM(国际电子器件会议)是半导体器件领域最顶尖的会议。最近IEDM在美国旧金山召开,汇聚了来自全球的顶尖研究成果。本届IEDM的主题是“智能时代的新型器件”,可见人工智能应用已经成为了半导体行业的重要推动力。同时,我们在本届IEDM也看到了众多与人工智能相关的器件研究成果。

500

摩尔定律还在延续

每届IEDM大家最关心的都是摩尔定律是否还能延续。在今年的IEDM上,TSMC首先正式发布了下一代5nm工艺。TSMC的5nm工艺技术平台将继续使用FinFET,并且广泛使用EUV技术。与7nm相比,TSMC的5nm工艺的逻辑门密度将提升1.84倍,速度提升15%,功耗降低30%。另外,由于大量使用了EUV技术,TSMC 5nm使用的掩膜数量将会比7nm技术要少。

从TSMC发布的5nm工艺性能来看,其相比7nm的主要提升在于逻辑密度,而提升最小的是逻辑速度。我们认为类似的趋势将会在接下来的半导体工艺节点演进中继续下去,即工艺节点演进主要提升逻辑门密度,而逻辑门速度的增加将会趋于饱和。因此,半导体芯片未来的性能提升对于半导体工艺节点的依赖度会越来越低,而更多是要依靠芯片结构设计。

500

此外,ASML和Intel也在本届IEDM上发布了未来的技术演进路线。作为光刻机领域的领军企业,ASML公布了其未来的高数字孔径(0.55NA)光刻机计划,同时还发布了其与Intel的合作开发下一代半导体技术的计划。在公布的计划中,Intel预计会在2021年开始7nm技术,同时Intel的5nm技术目前正在规格定义阶段,而3nm技术正在技术探索阶段。Intel预计将于5nm节点引入GAA(gate-all-around)器件。而Intel方面则发布了其在STT存储器、SOT-MRAM、铁电存储器、3D封装等领域的技术发展规划。Intel对于摩尔定律的延续显得信心满满,在IEDM的主题演讲中表示“摩尔定律的未来一片光明”。

内存内计算

IEDM中,内存内计算得到了非常多的关注。

内存内计算在IEDM得到关注的原因有多方面。首先,IEDM作为一个器件方面的会议,与人工智能结合的方向必须和器件紧密相关,而新的存储器是一个能兼顾器件创新和应用创新的方向。其次,存储器的瓶颈已经成为人工智能计算中的重要瓶颈。在芯片上放大量的计算单元来提高峰值算力是很简单的,但是如何保证随时都有足够的数据能送入计算单元来保证计算单元不会一直处于闲置状态则要困难得多。现有的存储器无论是数据带宽还是数据传送的能效比来说都不尽如人意,因此如果能在存储器件上有所创新,则能够大大改善人工智能计算的性能和效率。最后,新的存储器特性甚至能开启新的人工智能计算架构。例如,模仿生物大脑工作方式并能大大提升人工智能计算能效比的神经模态计算中需要用到忆阻器的特性,因此拥有忆阻器特性的新存储器也成为了内存内计算的重要研究方向。

本届IEDM中,有至少四个会议议程与内存内计算直接相关,分别是“Session 6 - Emerging Device and Compute Technology - Neuromorphic Session I-Device Focus”(神经模态内存内计算器件方向),“Session 14 - Emerging Device and Compute Technology - Neuromorphic Session II-Architecture Focus”(神经模态内存内计算架构方向),“Session 22 - Memory Technology/Emerging Device and Compute Technology - Focus Session: Emerging AI Hardware”(常规神经网络内存内计算架构方向)和“Session 38 - Memory Technology - Memory for Neural Network”(常规神经网络内存内计算器件方向)。

在神经模态方向中,我们看到了多种新的用作神经模态计算中模仿神经元和神经突触的器件。在人类大脑中,神经网络中包含大量的神经元和神经突触,一个神经元接收脉冲电荷并改变神经元的内部的电势能,当神经元电势能超过一定阈值后将会发射出脉冲,该脉冲一方面清空了发射脉冲神经元内部的电势,另一方面该脉冲会沿着神经突触进入其他神经元,并在其他神经元中积累电荷改变电势能,如此反复。大量神经元和突触之间形成的网络就是神经网络,而脉冲可以认为是神经元之间传递信息的方法。神经模态计算的架构就是模仿生物神经元的工作方法,因此神经模态计算中也需要用能够实现类似功能的神经元和神经突触。实现这些神经元和神经突触最直接的办法是使用数字电路去做数学上等价的电路(例如IBM的True North),但是代价太大,能效比很难改善。因此,最终极的解决方案就是利用新的半导体器件来真正模拟神经元和神经突触的工作。忆阻器,作为四种基本电子器件中最后一种被实现的器件(其他的电阻、电容和电感早已被发现且实用化,而忆阻器则是近十年才由HP Labs实现),恰恰能实现神经突触的性质,也因此成为了器件领域和人工智能计算结合最热门的方向之一。今年的IEDM中,我们就看到了不少用Crossbar来做忆阻器实现神经模态计算的论文,且今年的器件关键词还包括了基于铁电的器件,铁电器件不仅可以实现突触,还可以实现神经元,且基于铁电的存储器拥有能效比高且面积紧凑的优点,因此我们在这次的IEDM上看到了来自北京大学、清华大学、普渡大学、台湾国立交通大学等多个研究机构关于铁电器件做神经模态的研究。

在常规深度学习的内存内计算相关的议程中,我们看到了Flash和RRAM等新存储器用作内存内计算的研究。在今年的IEDM上,一个重要的风向是有越来越多的研究开始关注多比特内存内计算。在之前,内存内计算往往针对精度只有1-bit的binary neural network,这类神经网络的特点是能效比很高,很适合存储器设计,但是问题是神经网络的准确度会受到计算精度的影响。随着多比特内存内计算的研究出现,我们认为内存内计算在这个时间节点距离真正应用越来越近了。

模拟计算

在IEDM上,另一个器件与人工智能结合的方向是模拟计算。与传统的数字逻辑计算不同,模拟计算处理的是连续的模拟信号,其操作原理也会与器件的原理更紧密结合。

在IEDM今年关于模拟计算的论文中,有两篇论文具有很大的影响力。一篇是来自比利时IMEC和鲁汶天主教大学的《Towards 10000 TOPS/W DNN Inference with Analog In-Mem Computing》,该论文提出了一条实现10000 TOPS/W模拟计算能效比的路线图。如果算上ADC/DAC等数据转换的开销,该论文认为内存内模拟计算仍然能实现10倍于数字计算的能效比。

500

在论文中,作者探讨了几种可能实现超高内存内模拟计算能效比的新存储器器件,包括SOT MRAM,IGZO 2T1C DRAM,PCM等等。在计算数值精度的选择上,作者使用了2-bit精度,并认为该精度已经足够大部分使用(ResNet-50神经网络上相比全精度的准确率损失为2.9%)。作者同时设计了一个基于脉宽调制的多比特数值表示方案。在一系列关于存储器读写能量和模数-数模转换的合理假设下,作者认为该方案可以实现10000 TOPS/W的能效比,从而大大超越基于数字逻辑的计算方案。在具体的存储器实现方式上,作者认为SOT MRAM,IGZO 2T1C DRAM,PCM都是合理的存储器实现方案。

另外一篇重要的论文则是来自于MIT的Vivienne Sze研究组,该研究组可以说是卷积神经网络的开山始祖,2016年发表在ISSCC上的Eyeriss芯片成为了人工智能芯片的里程碑式研究。在本届IEDM中,Vivienne Sze从网络和硬件效率的角度分析了模拟计算和内存内计算设计需要考虑的要点。首先,由于模拟计算对于噪声相对于数字计算更敏感,因此在网络设计的时候也必须考虑到这一点。考虑到噪声的影响,事实上经典的VGG16网络的精度甚至要好于新一代的神经网络,这可能要归功于VGG16的设计中网络层宽度较大,因此存在的冗余较多,对于噪声也较不敏感。另外,对于内存内计算,由于内存内计算的计算阵列往往较大,因此需要每层网络的计算量够大才能保证充分利用内存内计算的计算资源。因此,Vivienne Sze的研究表示,考虑到模拟计算对于噪声的鲁棒性以及内存内计算的硬件利用率,最适合内存内模拟计算的神经网络应该是网络较宽,而层数较少的设计。这事实上与现在神经网络设计逐渐较少宽度而增加深度的潮流并不一致,因此我们认为如果内存内模拟计算成为主流硬件解决方案,那么在网络模型设计上还要专门做一些优化来满足硬件的一系列特性。

500

Vivienne Sze的这一论文从网络模型的角度探讨了内存内模拟计算。因此,在这次的IEDM上,我们看到了从器件层、从电路层和从模型层多个层次对于内存内模拟计算的研究和探讨,我们也认为随着这些研究更深入,内存内模拟计算将距离实用越来越近,最终正式走入真正的电子产品中。

全部专栏