侵权投诉
当前位置:

OFweek电子工程网

IC设计

正文

回顾ISSCC 看2017半导体行业哪些方向会火

导读: 2017年的国际固态半导体电路大会落下帷幕已经半个多月,半导体业的同仁们又回到了工作状态。我们不妨回过头来好好检视今年ISSCC上的议程和论文,看看2017年半导体电路行业哪些方向正在变得热门。

2017年的国际固态半导体电路大会落下帷幕已经半个多月,半导体业的同仁们又回到了工作状态。我们不妨回过头来好好检视今年ISSCC上的议程和论文,看看2017年半导体电路行业哪些方向正在变得热门。

回顾ISSCC 看2017半导体行业哪些方向最火

用于人工智能的深度学习芯片

今年ISSCC的主题是“Intelligent Chips for A Smart World”,“人工智能”这个关键词几乎呼之欲出。2012年后,人工智能以Alexnet诞生为标志迎来了高速发展期。随着去年AlphaGO战胜李世石,人们对这轮人工智能大潮的期待又上了一个台阶。

这一代人工智能的主要技术是深度神经网络(DNN)。具体地,目前深度学习应用最火的领域是在计算机视觉领域,而该领域由于应用的特性(图片中特征的本地性),最适合的网络结构是深度卷积神经网络(DCNN)。最初,人工智能应用都是运行在CPU上,目标是评估深度学习模型的性能(预测/分类准确度等),运行速度并不是最关键的指标。然而,随着深度学习逐渐实用化,具体的硬件部署和运行效率变得越来越重要,毕竟如果一次人脸识别需要1分钟才能完成那么用户体验太差了。这时候,大家发现CPU已经不够用了,原因是CPU中太多的芯片面积用在了复杂的控制逻辑上,用于计算的单元其实并不多,而DCNN需要的是大量并行运算,其控制流并不复杂。因此CPU并不适合DCNN应用。AlexNet的部署中用到了GPU,可以说是深度学习硬件上的第一次革命。相比CPU,GPU中的控制流较简单,大部分芯片面积都用做运算,因此非常适合深度学习应用。而且,GPU使用SIMT(单指令流多线程)的架构,能够将内存访问延迟带来的影响降低到最小,从而实现高性能计算。

然而,GPU虽然能够减小内存访问延迟的影响,却不能减小内存访问次数。GPU每次访问内存都伴随着能量消耗,因此一旦内存访问次数多了,能量消耗就很大,这就使得GPU无法使用在对能量消耗约束较多的场合。为了能够普及人工智能,专用的ASIC势在必行。也正因为ASIC需要优化能量,所以机器学习ASIC的主要指标是能量效率OPS/W=OP/J,即单位能量可以实现的操作数。

机器学习ASIC在ISSCC上其实很早就有相关论文,例如来自韩国KAIST的Yoo组在近五年来一直在发表相关论文,但是之前机器学习往往是作为视觉SoC的一个特性,而不是最大的卖点,发表的论文也是以视觉SoC的名义。直到2016年,来自MIT的陈喻新在ISSCC发表了Eyeriss,深度学习加速器的概念一炮而红,天下群雄响应。Eyeriss明确提出了传统GPU方案的问题在于数据流中的内存访问太浪费能量并且会成为性能瓶颈,而DCNN算法中许多数据是可以复用的,因此优化数据访问是深度学习加速器的重要优化方向。Eyeriss的能量效率可达200GOPS/W左右,相对于GPU是巨大的进步。

回顾ISSCC 看2017半导体行业哪些方向最火

Eyeriss架构图

在去年,Eyeriss发表的session名叫Next-Generation Processors,而在Eyeriss名震江湖后,无数人做了follow up,于是今年这个session干脆改名成了Deep-Learning Processors,因为大家都在做深度学习加速。今年论文的主要卖点仍然是数据流优化,除此之外还有计算精度优化。今年论文能量效率已经从去年Eyeriss的200GOPS/W进化到了2.9TOPS/W(STMicroelectronics),8.1TOPS/W(KAIST)甚至10TOPS/W(KU Leuven),照这么玩下去恐怕能量效率很快就会到瓶颈,接下来要做的优化就是要做差异化了。

回顾ISSCC 看2017半导体行业哪些方向最火

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号