侵权投诉
订阅
纠错
加入自媒体

深度剖析人工智能领域可能爆发的芯片及企业

2017-02-13 00:28
PokerJoker
关注

从去年3月份智能机器人AlphaGo战胜李世石,到近期谷歌的最新用于人工智能深度学习的芯片TPU曝光,一个千亿级的市场应用逐渐从水底浮向了水面。我们将深度剖析,在人工智能领域,有可能爆发的芯片——GPU、FPGA、ASIC及相关的市场和公司。

人工智能——风起于青萍之末

1.1.人工智能——下一个千亿级市场

人工智能会成为未来的趋势吗?答案是会。人工智能,简单地说,就是用机器去实现目前必须借助人类智慧才能实现的任务。人工智能包括三个要素:算法,计算和数据。

对人工智能的实现来说,算法是核心,计算、数据是基础。在算法上来说,主要分为工程学法和模拟法。工程学方法是采用传统的编程技术,利用大量数据处理经验改进提升算法性能;模拟法则是模仿人类或其他生物所用的方法或者技能,提升算法性能,例如遗传算法和神经网络。而在计算能力来说,目前主要是使用GPU并行计算神经网络,同时,FPGA和ASIC也将是未来异军突起的力量。

随着百度,Google,Facebook,Microsoft等企业开始切入人工智能,人工智能可应用的领域非常广泛。2013年100多家组织开始研发深度学习与人工智能,到2015年,短短2年间,研发机构已经迅速激增到3409家。可以看到,未来人工智能的应用将呈几何级数的倍增。应用领域包括互联网,金融,娱乐,政府机关,制造业,汽车,游戏等。从产业结构来讲,人工智能生态分为基础、技术、应用三层。应用层包括人工智能+各行业(领域),技术层包括算法、模型及应用开发,基础层包括数据资源和计算能力。

人工智能将在很多领域得到广泛的应用。目前重点部署的应用有:语音识别,人脸识别,无人机,机器人,无人驾驶等。

人工智能市场将保持高速增长,根据艾瑞咨询的数据,2020年全球人工智能市场规模约1190亿人民币。而未来10年,人工智能将会是一个2000亿美元的市场。空间非常巨大。其中在硬件市场方面,将会有30%的市场份额。

1.2.深度学习

人工智能的核心是算法,深度学习是目前最主流的人工智能算法。深度学习在1958年就被提出,但直到最近,才真正火起来,主要原因在于:数据量的激增和计算机能力/成本。

深度学习是机器学习领域中对模式(声音、图像等等)进行建模的一种方法,它也是一种基于统计的概率模型。在对各种模式进行建模之后,便可以对各种模式进行识别了,例如待建模的模式是声音的话,那么这种识别便可以理解为语音识别。而类比来理解,如果说将机器学习算法类比为排序算法,那么深度学习算法便是众多排序算法当中的一种,这种算法在某些应用场景中,会具有一定的优势。

深度学习的学名又叫深层神经网络(Deep Neural Networks),是从很久以前的人工神经网络(Artificial Neural Networks)模型发展而来。这种模型一般采用计算机科学中的图模型来直观的表达,而深度学习的“深度”便指的是图模型的层数以及每一层的节点数量,相对于之前的神经网络而言,有了很大程度的提升。

从单一的神经元,再到简单的神经网络,到一个用于语音识别的深层神经网络。层次间的复杂度呈几何倍数的递增。

以图像识别为例,图像的原始输入是像素,相邻像素组成线条,多个线条组成纹理,进一步形成图案,图案构成了物体的局部,直至整个物体的样子。不难发现,可以找到原始输入和浅层特征之间的联系,再通过中层特征,一步一步获得和高层特征的联系。想要从原始输入直接跨越到高层特征,无疑是困难的。而整个识别过程,所需要的数据量和运算量是十分巨大的。2012年,由人工智能和机器学习顶级学者AndrewNg和分布式系统顶级专家JeffDean,用包含16000个CPU核的并行计算平台训练超过10亿个神经元的深度神经网络,在语音识别和图像识别等领域取得了突破性的进展。该系统通过分析YouTube上选取的视频,采用无监督的方式训练深度神经网络,可将图像自动聚类。在系统中输入“cat”后,结果在没有外界干涉的条件下,识别出了猫脸。可以看到,深度学习之所以能够在今天得到重要的突破,原因在于:1海量的数据训练2高性能的计算能力(CPU,GPU,FPGA,ASIC))。两者缺一不可。

1  2  3  4  5  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号