G02002

AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈

优管网

发布: 2019/02/07

作者:Ai芯天下

TAG : 
AI

来源:人工智能网

随着底层芯片技术的进步,人工智能算法也将获得更好的支持和更快的发展。而在这一过程中,人工智能本身也很有可能被用于研发新的芯片技术,形成算法和芯片相互促进的良性循环局面。


通过《AI芯片技术白皮书》,可以清晰地看到人工智能芯片是人工智能产业和半导体产业交叉融合的新节点,涉及多个学科、多个领域的理论和技术基础,突显对基础扎实、创新能力强的人才的需求。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


科技巨头的AI芯片动作频出


从最近几大科技巨头在AI芯片领域的动作频频就不难看出。比如亚马逊开始设计制造AI芯片,从而为Alexa语音助手的质量提升以及Echo智能音响设备提供更强大的技术能力,而苹果、三星、华为在智能手机处理器上集成深度学习引擎方面也展开了一场较量。


其背后的推动力来自于深度学习对超强算力的需求。NVIDIA显然是这波浪潮中最大的受益者,其股价从2016年的32.25美元上涨至2018年的245.8美元,两年间市值飙升近8倍。被认为是NVIDIA最大竞争对手的谷歌宣布了对第二代TPU的全面开放,而且价格诱人,每云TPU每小时6.5美元。可以说是又向NVIDIA开了一炮。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


云端+边缘结合是AI芯片发展现状


在应用场景上,AI芯片的应用主要分为云端和终端,以深度学习的算法来说,云端人工智能硬件负责“训练+推断”,终端人工智能硬件负责“推断”,因而终端的计算量更小,相对没有传输问题。


总的来说,云侧AI处理主要强调精度、处理能力、内存容量和带宽,同时追求低延时和低功耗;边缘设备中的AI处理则主要关注功耗、响应时间、体积、成本和隐私安全等问题。目前云和边缘设备在各种AI应用中往往是配合工作。最普遍的方式是在云端训练神经网络,然后在云端或者边缘设备进行推断。


①云端AI计算:目前各大科技巨头纷纷在自有云平台基础上搭载人工智能系统,主要有IBM的waston、亚马逊的AWS、以及国内的阿里云、百度云平台等。其中英伟达的GPU采用更为广泛,赛灵思、英特尔、百度等厂商也在积极采用FPGA在云端进行加速,一些初创公司,如深鉴科技等也在开发专门支持FPGA的AI开发工具。另外,AI领域专用架构芯片ASIC则因其更好的性能和功耗,成为云端领域新的搅局者,如谷歌的TPU。


②边缘AI计算:智能手机是目前应用最为广泛的边缘计算设备,包括苹果、华为、高通、联发科和三星在内的手机芯片厂商纷纷推出或者正在研发专门适应AI应用的芯片产品。自动驾驶是未来边缘AI计算的最重要应用之一,MobileEyeSOC和NVIDIADrivePX系列提供神经网络的处理能力可以支持半自动驾驶和完全自动驾驶。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


新计算范式让AI芯片更上一层楼


人工智能产业得以快速发展,都离不开芯片。随着大数据的积聚、理论算法的革新、计算能力的提升及网络设施的发展,使得持续积累了半个多世纪的人工智能产业,又一次迎来革命性的进步,人工智能的研究和应用进入全新的发展阶段。


AI芯片的计算既主要特点:


①处理内容往往是非结构化数据,如视频、图像及语音等,需要通过样本训练、拟合基环境交互等方式,利用大量数据来训练模型,再用训练好的模型处理数据;


②处理过程需要很大的计算量,基本的计算主要是线性代数运算,大规模并行计算硬件更为适合;


③处理过程参数量大,需要巨大的存储容量,高带宽、低延时的访存能力,及计算单元和存储器件间丰富且灵活的连接。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


冯·诺依曼的技术挑战


AI芯片需要满足高效的数据访问,以及深度学习下的新的计算范式,AI芯片在发展上,也遇到了一些瓶颈问题,特别是冯·诺依曼瓶颈。


在传统“冯·诺依曼架构”中,计算模块和存储单元互相分离,数据从处理单元外的存储器提取,处理完之后再写回存储器。每一项任务,如果有十个步骤,那么CPU会依次进行十次读取、执行,再读取、再执行,这就造成了延时,以及大量功耗花费在了数据读取上。


大部分针对AI,特别是加速神经网络处理而提出的硬件架构创新都是在和这个问题做斗争。概括来说,目前的解决思路包括减少访问存储器的数量,降低访问存储器的代价。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


AI芯片中的新兴计算技术


新兴计算技术包括近内存计算、存内计算,以及基于新型存储器的人工神经网络和生物神经网络。


对于冯·诺依曼、CMOS工艺和器件瓶颈形成的AI芯片存储、计算间的问题,神经形态计算是一种新的路径。近些年,神经形态计算也用来指采用模拟、数字、数模混合VLSI以及软件系统实现的神经系统模型。其将数字处理器当作神经元,把内存作为突触,内存、CPU和通信部件完全集成在一起,采用模拟人脑神经元结构来提升计算能力。


而针对CMOS工艺瓶颈的解决思路,可以通过开发提供大量存储空间的片上存储器技术,并探索利用片上存储器去构建未来的智能芯片架构。


神经形态芯片的最终方向


借鉴生物脑的互联结构,神经形态芯片可以实现任意神经元间的互联。即在指定规模的仿生神经网络下,任意一个神经元都可以把信息传递给指定的另一个或多个神经元。如此强大的细粒度互联能力是其他神经网络/深度学习芯片目前还无法做到的。


神经形态芯片在智能城市、自动驾驶的实时信息处理、人脸深度识别等领域都有出色的应用。如IBMTrueNorth芯片可以用于检测图像中的行人、车辆等物体,且功耗极低(65mW)。它也可被用于语音、图像数据集识别等任务,准确性不逊于CNN加速器芯片。此外,在线学习能力也是神经形态芯片的一大亮点。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


AI芯片的存储技术将被颠覆


近期,面向数字神经网络的加速器(GPU、FPGA和ASIC)迫切需要AI友好型存储器。


中期,基于存内计算的神经网络可以为规避冯·诺依曼瓶颈问题提供有效的解决方案。


后期,基于忆阻器的神经形态计算可以模拟人类的大脑,是AI芯片远期解决方案的候选之一。


人工智能芯片如果能有统一的终极算法出现,那么我们很可能会看到一个终极芯片出现。AI芯片是整个人工智能技术发展的基础,也将是推动整个半导体领域技术进步的最重要的力量之一。


随着人工智能和物联网的持续快速发展,越来越多的应用需求和应用场景将不断涌现。需求驱动的AI芯片技术创新将促进创新链与产业链更加紧密结合,推动开放合作、共享共赢的产业生态形成。


CMOS技术与新兴信息技术的交叉融合,开源软件到开源硬件的潮流渐显,预示着我们将迎来一个前所未有的协同创新机遇期。


AI芯天下丨清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈


国内国外的AI芯片将成大趋势


今年,国际、国内已经有多家芯片巨头公布AI芯片计划,也有多家AI芯片的研发公司获得融资。


由寒武纪科技公司领头,已经完成1亿美元A轮融资,并由国投创业(A轮领投方),阿里巴巴创投、联想创投、国科投资、中科图灵、元禾原点(天使轮领投方)、涌铧投资(天使轮投资方)联合投资,这轮融资之后,寒武纪科技已经成为全球AI芯片领域第一家独角兽公司。


英特尔、英伟达和三星,Facebook、微软、Google、IBM、苹果、华为等科技公司都在积极布局AI芯片。芯片巨头英特尔收购Nervana、Altera。其中,收购Nervana一举被认为是要与英伟达开战。英伟达在芯片领域的表现越来越好,为了研发AI芯片,还聘请了专门研究AI芯片的Clément Farabet。可见专业的AI芯片将是未来很长时间的大趋势。


免责声明:本文内容源于网络,仅供参考,不代表本网观点;如涉及版权问题,请及时与我们联系。

其他新闻
网友评论