AI通用芯老玩法新套路:GPU/FPGA脱颖而出,CPU/DSP还有哪些可能
芯片作为产业链技术要求最高的环节之一,往往是最难攻克的阵地。2016年,我们谈中国集成电路在芯片环节还比较薄弱;2017上半年,我们说我国与美国的差距主要在硬件方面,尤其是芯片环节;2017下半年及2018年,我们看到一批本土AI芯发布,很多还带有“首款”的荣誉称号,首款嵌入式AI芯、首款人脸识别AI芯、首款AI移动芯片等等。
似乎,集成电路最难攻克的环节——芯片,在AI大环境下,一切都变得那么EASY。这是真的吗?
以上是一位与非网友向小编表达出的疑惑。近期,小编收到很多网友关于AI芯的疑惑。那么,在近期的《AI发现》中,我们将结合与非网友的疑惑,讲一讲AI芯那些事。
AI芯定义
广义上讲,可以运行AI算法的都可以称为AI芯片,只不过效率有高有低;狭义上说,针对AI算法专门做了特殊加速设计的芯片才是AI芯片。
AI芯的硬件核心
AI芯的核心就是神经网络加速器,或者叫深度学习加速器。
AI芯分类
芯片架构,四大类芯片
通用类芯片,代表如CPU、GPU、FPGA;
基于FPGA的半定制化芯片,代表如深鉴科技DPU、百度XPU等;
全定制化ASIC芯片,代表如TPU、寒武纪 Cambricon-1A等;
类脑计算芯片,代表如IBM TrueNorth、westwell、高通Zeroth等。
功能,训练( Training)与推理(Inference)
训练(Training):通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。
该过程对处理器的计算能力、精度、可扩展性等性能要求很高,能胜任此环节工作的芯片有英伟达的GPU集群与Google TPU2.0。
推理(Inference):利用训练好的模型,使用新的数据去“推理”出各种结论。
相比训练过程,推理的计算量像是个“小儿科”,尽管如此,但此过程也涉及大量的矩阵运算。GPU、FPGA和ASIC在此过程发挥作用。
应用场景,云端(Cloud/DataCenter)与设备端(Device/Embedded)
目前,训练环节只能在云端实现。GPU、FPGA、ASIC(Google TPU1.0/2.0)等都已应用于云端训练环境。
设备端对AI芯的需求差异大、数量庞大,低功耗、低延迟、低成本是该领域需求趋势,如今的xPU与ASIC热更多集中于该领域。
搞清楚各类芯在AI格局中所在的位置后,我们就集中精力解答如下的问题:
AI芯与AI通用芯的趋势是什么?
AI通用芯的玩法有哪些? 谁才是王道?
与非观点:
AI芯的趋势:从通用到专用。
该趋势包含两个层次的含义:某些应用场景,AI专用芯取代AI通用芯;AI通用芯,从通用到为AI定制。
AI通用芯玩法:CPU、GPU、FPGA和DSP共存。
市场首批AI芯片,几乎都是以现成的CPU、GPU、FPGA和DSP加以组合而成,是和平共处的局面;如今,他们却被视作互撕的几股势力。或许情况并不是这样,各种AI芯玩法都有存在的意义。
AI通用芯之间的竞争,是一场旧势力新套路的竞争。
与非论据:
AI芯的趋势
曾经提及AI通用芯的较量,主要是CPU与GPU两股势力;后来CPU渐渐淡出大众视线,GPU成为AI界宠儿。2016~2017年,英特尔与英伟在AI市场的地位及发展也能说明这一点。
黄仁勋曾在演讲中表示,CPU的时代结束了。
英特尔怼回去说:不单CPU不行了,GPU也不行了。
这说明,英特尔肯定了通用CPU在AI领域无力的事实,同时对通用GPU也提出了质疑。
那么,短板在哪?是“通用”还是“处理器类型”?
小编认为是“通用”,而不同处理器类型是面向不同应用场景总有自身可发挥的优势。
GPU赢过CPU就是因为GPU比CPU专用。GPU借助在深度学习方面的优势,成为最有竞争力的AI芯片;CPU通用性强,适用于串行计算,对于AI算力而言,较缓慢。当然,CPU与GPU都不是发展AI最专用的芯片。
图片新闻
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
11月29日立即预约>> 【上海线下】设计,易如反掌—Creo 11发布巡展
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.5立即观看>> 松下新能源中国布局:锂一次电池新品介绍
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论