侵权投诉
当前位置:

OFweek电子工程网

其它

正文

AI芯片的战争开打 神经网络构架性能评估工具即将面世

导读: AI人工智能可说是2016年芯片处理器运算领域最热门的话题,芯片厂商竞相开发专用芯片的战争已经开打,对神经网络构架进行性能评估的工具也即将面世。

 对运算产业来说,在过去的2016年应该没有一个概念比人工智能(AI)更热门;跨入2017年,专家们表示,人工智能生态圈的需求成长会更加迅猛。主要集中在为深度神经网络找寻性能和效率更适合的“推理(inference)引擎”。

现在的深度学习系统仰赖软件定义网络和巨量数据学习产生的超大型运算能力,并靠此来实现目标;遗憾的是,这类型的运算配置是很难嵌入到那些运算能力、内存容量大小和带宽都有限制的系统中(例如汽车、无人机和物联网设备)。

这为业界带来了一个新的挑战──如何透过创新将深度神经网络运算能力嵌入到终端设备中。如(已经被Intel收购的)计算机视觉处理器设计业者Movidius执行长Remi El-Ouazzane在几个月前就说过,将人工智能布署在网络边缘将会是一个大趋势。

在问到为什么人工智能会被“赶”到网络边缘的时候,法国原子能委员会(CEA)架构、IC设计嵌入式软件(Architecture, IC Design and Embedded Software)部门院士Marc Duranton提出三个原因:安全性(safety)、隐私(privacy)和经济(economy);他认为这三点是驱动业界在终端处理数据的重要因素,而未来将会衍生更多「尽早将数据转化为信息」的需求。

Duranton指出,试想自动驾驶车辆,如果其目标是安全性,那些自动驾驶功能就不应该只仰赖永不中断的网络联机;还有例如老人在家里跌倒了,这种情况应该由本地监测装置在当场就判断出来,考虑到隐私因素,这是非常重要的。而他补充指出,不必收集家里10台摄影机的所有影像并传输以触发警报,这也能降低功耗、成本与数据容量。

AI竞赛正式展开

从各方面看来,芯片供货商已经意识到推理引擎的成长需求;包括Movidus (Myriad 2), Mobileye (EyeQ 4 & 5) 和Nvidia (Drive PX)在内的众多半导体公司正竞相开发低功耗、高性能的硬件加速器,好让机器学习功能在嵌入式系统中被更妥善执行。

从这些厂商的动作和SoC的发展方向看来,在后智能型手机时代,推理引擎已经逐渐成为半导体厂商追逐的下一个目标市场。

在今年稍早,Google推出了张量处理单元(TPU),可说是产业界积极推动机器学习芯片创新的一个转折点;Google在发表芯片时表示,TPU每瓦性能较之传统的FPGA和GPU将会高一个等级,此外并指出这个加速器还被已被应用于今年年初风靡全球的AlphaGo系统。但是迄今Google并未披露TPU的规格细节,也不打算让该组件在商业市场上销售。

很多SoC从业者从Google的TPU中得出了一个结论──机器学习需要客制化的架构;但在他们针对机器学习进行芯片设计的时候,他们又会对芯片的架构感到疑惑,同时想知道业界是否已经有了一种评估不同形态下深度神经网络(DNN)性能的工具。

性能评估工具即将问世

CEA表示,该机构已经准备好为推理引擎探索不同的硬件架构,他们已经开发出一种名为N2D2的软件架构,能够帮助设计工程师探索和生成DNN架构;Duranton指出:「我们开发这个工具之目的,是为DNN选择适合的硬件目标。」CEA将会在2017年第一季释出N2D2的开放源码。

N2D2的特色在于不仅是以识别精确度为基础来比较硬件,它还能从处理时间、硬件成本和功耗等多个方面执行比较;Duranton表示,因为针对不同应用的深度学习,需求之硬件配置参数也会有所不同,因此以上几个比较非常重要。N2D2能为现有CPU、GPU和FPGA等硬件(包括多核心与众多核心)提供一个性能参考标准。

AI芯片的战争开打 神经网络构架性能评估工具即将面世

N2D2运作原理

AI芯片的战争开打 神经网络构架性能评估工具即将面世

边缘运算的障碍

CEA已经针对如何把DNN完美地推展到边缘运算(edge computing)进行了深入研究;Duranton指出,其中最大的障碍在于因为功耗、内存容量尺寸和延迟等限制,“浮点”式服务器方案不适用;而其他障碍还包括:「需要大量的MAC、带宽和芯片上内存容量。」

所以说,采用整数(Integer)而非浮点运算是最需要优先考虑的问题…还有别的吗?Duranton认为,这种专属架构也需要采用新的编码方式,例如「棘波编码(spike coding)」;CEA的研究人员研究了神经网络的特性,发现这种网络能容忍运算误差,使其适用于「近似运算(approximate computation)」。

如此一来,甚至于不需要采用二进制编码;而Duranton解释,其好处在于诸如棘波编码的时间编码(temporal coding),能在边缘运算提供更具能源效益的结果。棘波编码之所以具吸引力,是因为棘波编码──或是以事件为基础(event-based)的──系统能展现实际神经系统内的数据如何被译码。

此外,以事件为基础的编码能兼容专用的传感器和预处理(pre-processing)。这种和神经系统极度相似的编码方式,使得模拟和数字混合讯号更容易实现,也能够帮助研究者打造低功耗的小型硬件加速器。

还有其他能加速将DNN推展到边缘运算的因素;例如CEA正在考虑把神经网络架构本身调整为边缘运算的潜在可能。Duranton指出,现在人们已经开始讨论采用「SqueezeNet」架构而非「AlexNet」架构的神经网络,据了解,前者达到与后者相同精确度所需的参数规格是五十分之一;这类简单配置对于边缘运算、拓扑和降低MAC数量都十分关键。

而Duranton认为,最终目标是将经典DNN转换成「嵌入式」网络。

CEA的雄心是开发神经形态(neuromorphic)电路;该研究机构认为,这类芯片在深度学习应用中,是从接近传感器的数据(data)提取信息(information)的有效补充。

在实现以上目标之前,CEA考虑了数个权宜之计;例如D2N2这样的开发工具,对于芯片设计业者开发高水平每瓦TOPS (tera operations per second per Watt)性能的客制化DNN解决方案非常重要。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: