侵权投诉
当前位置:

OFweek电子工程网

开发工具/算法

正文

从任务角度分析深度学习硬件发展趋势

导读: 2016 年 3 月份,谷歌 DeepMind 的计算机在多轮围棋比赛中击败了世界围棋冠军李世乭。这一事件标志着人工智能领域内的一个新里程碑。获胜的 AlphaGo 借力于现在为大家所熟知的深度学习——一种人工神经网络;在这种神经网络里有很多计算处理层,可以用来自动寻找问题的解决方案。

从微小器件到海量数据中心,格外强劲的硬件将能为深度学习领域内的一切提供助力。

2016 年 3 月份,谷歌 DeepMind 的计算机在多轮围棋比赛中击败了世界围棋冠军李世乭。这一事件标志着人工智能领域内的一个新里程碑。获胜的 AlphaGo 借力于现在为大家所熟知的深度学习——一种人工神经网络;在这种神经网络里有很多计算处理层,可以用来自动寻找问题的解决方案。

那时候人们还不知道谷歌正在悄然开发为这一胜利提供助力的秘密武器——一种专用硬件,在谷歌用于击败世界冠军李世石的计算机里已有这种特殊硬件。这种硬件被谷歌称为张量处理单元(TPU/Tensor Processing Unit)。

谷歌的一位硬件工程师 Norm Jouppi 在这场围棋大战的两个月后宣布了张量处理单元的存在,并解释说谷歌的数据中心已经使用这些新型加速器一年多了。谷歌还没有公布这些集成板上到底有什么奥妙,但毫无疑问的是,这代表着加速深度学习计算上的一个日益流行的策略:使用专用集成电路(ASIC)。

来自深度学习软件的收入很快就将超过十亿美元(单位:十亿美元;来源: Tractica)

企业(主要是微软)追求的另一个战术是使用现场可编程门阵列(FPGA),其有可重配置的优势,可以根据计算需求进行修改。而更常见的方法则是使用图形处理单元(GPU),这种计算设备可以并行地同时执行大量数学运算。最知名的 GPU 提供商英伟达(NVIDIA)近段时间以来的股价飞涨也正是得益于此。

事实上,GPU 在 2009 年的时候就已经在驱动人工神经网络了,那时候斯坦大学的一些研究者证明这种硬件使得深度神经网络的训练时间很适宜。

「今天所有人都在做深度学习,」斯坦福大学 Concurrent VLSI Architecture 研究组的领导者兼英伟达首席科学家 William Dally 说。他说这从他的角度来看是不足为奇的。「GPU 几乎和你想象的一样美好。」

Dally 解释说有三个独立的领域需要考虑。第一是他所说的「数据中心中的训练」。他认为任何深度学习系统的第一步都是:调节神经元之间大约数百万个连接以使网络能够完成分配给它的任务。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: