当前位置:主页 >智能硬件 >

IEDM纸之旅新兴半导体器件将成为人工智能支柱

0
时间:2020-01-22 10:57:00 来源:科联网
[导读]IEDM论文巡礼:新兴半导体器件将成为AI支柱|icbank|巡礼|nm

原标题:IEDM纸之旅:新兴半导体器件将成为人工智能支柱

来源:公共数字半导体产业观察(身份证:集成电路银行)内容,谢谢!

IEDM(国际电子器件会议)是半导体器件领域的顶级会议。IEDM最近在美国旧金山举行,汇集了来自世界各地的顶尖研究成果。此次IEDM的主题是“智能时代的新设备”,这表明人工智能的应用已经成为半导体行业的重要推动力。与此同时,我们也在IEDM看到了许多与人工智能相关的设备的研究成果。

959d9adc571440fd9afcc583fa3658bc.jpeg

摩尔定律还在延续

每个IEDM人都最关心摩尔定律能否继续。在今年的IEDM,TSMC首次正式发布了下一代5纳米技术。TSMC的5纳米工艺技术平台将继续使用FinFET,EUV技术将得到广泛应用。与7纳米相比,TSMC的5纳米工艺将逻辑门密度提高1.84倍,速度提高15%,功耗提高30%。此外,由于EUV技术的广泛使用,TSMC在5纳米时使用的掩模数量将少于7纳米技术。

从TSMC发布的5纳米工艺性能来看,其超过7纳米的主要改进在于逻辑密度,而最小的改进在于逻辑速度。我们相信,在半导体工艺节点的下一次进化中,类似的趋势将继续,即工艺节点的进化主要增加逻辑门的密度,而逻辑门速度的增加将趋于饱和。因此,未来半导体芯片性能的提高将越来越少地依赖于半导体工艺节点,而更多地依赖于芯片结构设计。

18331d542fc4406cbd792e9a66eafb86.jpeg

此外,ASML和英特尔还在IEDM宣布了未来的技术发展路线。作为光刻领域的领导者,ASML宣布了其未来的高数字孔径(0.55NA)光刻计划,并宣布了与英特尔合作开发下一代半导体技术的计划。在公布的计划中,英特尔预计将于2021年启动7纳米技术,而英特尔的5纳米技术目前处于规范定义阶段,3纳米技术处于技术探索阶段。英特尔预计将在5纳米节点引入通用器件。另一方面,英特尔发布了其在STT存储器、索特-MRAM、铁电存储器、3D封装等领域的技术发展计划。英特尔对摩尔定律的延续充满信心,在IEDM的主旨演讲中称“摩尔定律的未来是光明的”。在

内存内计算

IEDM,内存计算受到了广泛关注。

内存计算在IEDM引起关注有很多原因。首先,IEDM作为一个关于设备的会议,与人工智能结合的方向必须与设备紧密相关,而新记忆是一个可以考虑设备创新和应用创新的方向。其次,记忆瓶颈已经成为人工智能计算中的一个重要瓶颈。将大量计算单元放在芯片上以提高峰值计算力是非常简单的,但是要确保足够的数据可以在任何时候发送到计算单元以确保计算单元不会一直空闲要困难得多。现有的存储器在数据带宽或数据传输的能量效率方面并不令人满意,因此如果能够在存储设备上进行创新,人工智能计算的性能和效率将会大大提高。最后,新的内存特性甚至可以打开新的人工智能计算架构。例如,模拟生物脑工作模式的神经模式计算需要忆阻器特性,可以大大提高人工智能计算的能量效率。因此,具有忆阻器特性的新型存储器也成为存储器内计算的一个重要研究方向。

在这个IEDM,至少有四个会议议程与内存计算直接相关,即“第六场会议——新兴设备和计算机技术——神经形态第一场会议——设备焦点”。“会话14-紧急设备和计算机技术-神经形态会话-架构焦点”(神经模式记忆中计算架构的方向)。“第22节—内存技术/新兴设备和计算机技术—聚焦第:节新兴人工智能硬件和第38节—内存技术—神经网络内存。

在神经模式的方向上,我们已经看到许多新的装置用于在神经模式计算中模拟神经元和突触。在人脑中,神经网络包含大量的神经元和突触。一个神经元接收脉冲电荷并改变神经元内部的电势。当神经元的电位能量超过某个阈值时,它会发出脉冲。一方面,脉冲清空了发出脉冲的神经元内部的电位;另一方面,脉冲将沿着突触进入其他神经元,并在其他神经元中积累电荷以改变电势。这是重复的。在大量神经元和突触之间形成的网络是神经网络,脉冲可以被认为是在神经元之间传递信息的一种方法。神经模式计算的架构是模拟生物神经元的工作方式,因此在神经模式计算中也需要能够实现类似功能的神经元和突触。实现这些神经元和突触最直接的方法是使用数字电路来制作数学上等效的电路(例如,IBM的真北),但成本太高,能效比难以提高。因此,最终的解决方案是使用新的半导体器件来真正模拟神经元和突触的工作。忆阻器,作为四种要实现的基本电子器件中的最后一种(其他电阻、电容和电感早就被发现并付诸实践,而忆阻器在过去十年里才被惠普实验室实现),可以精确地实现突触的特性,从而成为器件和人工智能计算领域最热门的方向之一。在今年的IEDM,我们已经看到很多论文使用纵横制(Crossbar)作为忆阻器来实现神经模式计算,今年器件的关键词还包括基于铁电的器件,它不仅可以实现突触,还可以实现神经元,基于铁电的存储器具有高能效比和面积紧凑的优点。因此,我们已经看到北京大学、清华大学、普渡大学和台湾国立交通大学等许多研究机构对铁电器件的神经模式进行了研究。

在传统深度学习中与内存计算相关的议程中,我们看到了使用闪存和RRAM等新存储器作为内存计算的研究。在今年的IEDM,一个重要的风向是越来越多的研究已经开始关注多位内存计算。过去,内存中的计算通常针对精度仅为1位的二进制神经网络。这些神经网络具有高能效比的特点,非常适合内存设计,但问题是神经网络的精度会受到计算精度的影响。随着多位内存计算研究的出现,我们相信内存计算越来越接近于此时节点的实际应用。

模拟计算

在IEDM,将另一种设备与人工智能相结合的方向是模拟计算。与传统的数字逻辑计算不同,模拟计算处理连续的模拟信号,其工作原理将更紧密地与器件的原理相结合。

在IEDM今年关于模拟计算的论文中,有两篇影响很大。一个是比利时IMEC和鲁汶天主教大学的《Towards 10000 TOPS/W DNN Inference with Analog In-Mem Computing》。本文提出了实现10,000 TOPS/W模拟计算能效比的路线图。如果考虑到模数转换器/数模转换器等数据转换的成本,本文认为内存模拟计算仍然可以达到数字计算能效比的10倍。

5b0ae8881f424ab3a1fada21c92caf29.jpeg

本文讨论了几种可以实现超高内存模拟计算能效比的新型存储器件,包括SOT MRAM、IGZO 2T1C动态随机存储器、相变存储器等。在数值精度的选择上,作者采用2位精度,认为精度足以满足大多数应用(ResNet-50神经网络的精度损失比全精度损失2.9%)。作者还设计了一种基于脉宽调制的多位数字表示方案。在一系列关于存储器读写能量和模数转换的合理假设下,笔者认为该方案可以达到10,000 top/w的能效比,大大超过了基于数字逻辑的计算方案。就具体的内存实现而言,作者认为MRAM软件、IGZO 21C动态随机存储器和相变存储器都是合理的内存实现。

另一篇重要论文来自麻省理工学院的Vivienne Sze研究小组,该小组可以说是卷积神经网络的第一个祖先。2016年在ISSCC发布的Eyeriss芯片已经成为人工智能芯片的里程碑式研究。在这个IEDM,Vivienne Sze从网络和硬件效率的角度分析了模拟计算和内存计算设计中需要考虑的要点。首先,因为模拟计算比数字计算对噪声更敏感,所以在网络设计中也必须考虑到这一点。考虑到噪声的影响,事实上,经典VGG16网络的精度甚至优于新一代神经网络。这可能是由于VGG16设计中网络层的宽度较大,因此冗余度较大,对噪声不太敏感。此外,对于内存计算,由于内存计算的计算阵列通常很大,因此每层网络中的计算量需要足够大,以确保内存计算的计算资源得到充分利用。因此,Vivienne Sze的研究表明,考虑到模拟计算对噪声的鲁棒性和内存计算的硬件利用率,最适合内存模拟计算的神经网络应该是网络更宽、层数更少的设计。事实上,这与当前神经网络设计中宽度逐渐减小、深度逐渐增加的趋势是不一致的。因此,我们认为如果内存仿真成为主流的硬件解决方案,那么在网络模型设计中应该特别做一些优化,以满足一系列的硬件特性。本文通过

c9495da4b5f4459bbbc46f4a045b416e.jpeg

Vivienne Sze从网络模型的角度讨论内存模拟。因此,在这个IEDM上,我们已经从器件层、电路层和模型层看到了内存模拟的研究和讨论。我们还相信,随着研究的深入,内存模拟将越来越接近实际应用,并最终正式进入真正的电子产品。

相关阅读