侵权投诉
订阅
纠错
加入自媒体

一文读懂AI芯片:国产崛起的最佳时机?

三种技术路线,谁是AI芯片的未来

AI芯片目前有3种主流技术路线,分别为GPU、FPGA以及ASIC。

GPU是最早进行并行加速计算的处理器,得益于高并行结构,在处理图形数据和复杂算法方面它比CPU速度更快;在结构上,CPU大部分面积为控制器和寄存器,而GPU拥有更多ALU(逻辑运算单元)用于数据处理,这样的结构更适合对密集型数据进行并行处理。

目前,GPU已经发展到较为成熟的阶段。Google、Facebook、微软、百度等公司都在使用GPU分析图片、视频和音频文件,在无人驾驶技术上也用到很多GPU芯片。但GPU也有一定的局限性。比如深度学习算法分为训练和推断两部分, GPU在算法训练上非常高效。但在推断中,并行计算的优势就不能完全发挥出来。

FPGA是可编程器件基础上进一步发展的产物,用户可通过多次烧录FPGA配置文件来定义这些门电路以及存储器之间的连线。这种方式既解决了定制电路灵活性的不足,又克服了原有可编程器件门电路数有限的缺点。由于FPGA可同时进行数据并行和任务并行计算,因此在处理特定应用时效率更高。

在功耗方面,FPGA每个逻辑单元的功能在烧录时就已经确定,不需要指令,无需共享内存,从而可以极大的降低单位执行的功耗。

第三种,全定制化的ASIC。这类芯片的计算能力和计算效率都直接根据特定的算法的需要进行定制,最大的优势在于体积小、功耗低、高可靠性、保密性强、计算性能高、计算效率高等。所以在特定领域,ASIC芯片是远超GPU、FPGA的。当然,ASIC芯片的缺点也很明显,因为其是针对特定算法设计的,一旦芯片设计完毕,对应的算法就是固定的,所以一旦算法发生变化就可能将会无法使用。

AI芯片崛起的原因

AI芯片之所以能在近几年快速崛起,无外乎以下几个原因:

1、市场需求扩张

人工智能发展的初期,算法为王,像数据中心、大数据分析、精准营销等方面成功实现了商业落地。随着智能化变革深入到交通、安防、通信等领域,受功耗、传输数据、时延等条件限制,仅靠原有的云端计算解决方案难以满足人工智能本地应用落地计算需求,在终端、边端场景同样需要人工智能计算,因此催生了AI芯片新硬件的发展。

“不管有什么好的AI算法,要想最终得到应用,就必然要通过芯片来实现。”清华大学微电子所所长魏少军教授曾这样表示,作为算法的载体,芯片硬件的提升也为先进的软件算法带来了更多的机会,为高性能、高算力AI芯片的出现提供了更多保障。

2、政策支持,资本看好

人工智能正成为国际学术的新焦点,加快新一代人工智能培养,已成为抓住新一轮科技革命和产业变革机遇的战略性问题。对此,国家对人工智能的发展高度重视,并陆续出台一系列人工智能产业发展政策。目前我国人工智能产业已基本成型,从中央到各地的政策措施陆续亮相。在政策扶持下,不仅能加快人工智能产业政策的落地,还能促进产业深度融合,加速人工智能应用商业化的发展。

AI芯片市场引发了老牌芯片厂商英伟达、英特尔的持续关注,像国内的百度、阿里、华为等科技巨头也纷纷加码AI芯片赛道。除了巨头的动作,早在2014年国家多部门联合多个企业成立了“国家集成电路产业投资基金”,一期投资高达1387亿元,如今大基金二期完成2000亿左右规模的募资,接下来将重点投资人工智能、5G、物联网等终端应用产业,进一步推动国产半导体产业发展。

3、技术门槛稍低

为什么有大量厂商都开始转型研发AI芯片,很重要的一点原因是其技术门槛稍低。很多人工智能学习都要求的是完成简单而大量地重复输入,且AI芯片针对某一类特定场景进行开发,不像传统CPU一样要求“十项全能”。其次,很多时候所谓的AI芯片并不是独立研发的一块芯片,不必耗费大量精力去完成各类IP(知识产权)内核,而是针对一些AI功能进行加速优化,以释放更多计算资源跟其他模块去处理复杂场景。这也是科技企业为什么蜂拥做AI芯片的原因之一。

<上一页  1  2  3  下一页>  
声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

电子工程 猎头职位 更多
扫码关注公众号
OFweek电子工程网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号