当前位置:

OFweek电子工程网

开发工具/算法

正文

深度学习芯片大战升温 英特尔、英伟达各出奇招

导读: 先把英特尔和英伟达的争论放一边,要说训练深度学习神经网络,GPU 是时下主流的选择,相信这一点应该不会有多少异议。

  OFweek电子工程网讯 英特尔IDF近日召开,深度学习成为一大重点。不料,英伟达掐准时间,在IDF举行同时发表官方博文,指出英特尔在宣传其最新 Xeon Phi 处理器加速深度学习性能时使用过时的数据,有意误导消费者,没有给GPU性能一个公正的评价。两大芯片巨头针对深度学习,矛盾凸显。华为传感器应用实验室首席科学家丁险峰认为,加速深度学习的能力是当前考察服务器综合性能的关键指标和最大卖点,长远看英特尔更具优势。

  近日,英特尔开发者大会 IDF 在旧金山召开。昨天的会议 Intel Analytics Summit 几乎成了机器学习的主场。开幕主旨演讲中,英特尔执行副总裁 Diane Bryant 表示,如今数据正在成为制胜关键,“机器到机器之间交换的数据不断增多,我们必须应对拥有更多数据的未来”。

  英特尔集团副总裁、数据中心解决方案团队总经理 Jason Waxman 介绍了 Penn Medicine 使用英特尔的 TAP 开放分析平台,提升病患的就医体验。顶级公司如今都在使用机器学习算法从数据中挖掘洞见。大会邀请嘉宾、埃森哲技术实验室的首席数据科学家 Saghamitra Deb 在演讲中介绍了如何使用人工智能阅读并批注文件,特别是医疗文件。

  在小型讨论会上,英特尔 Fellow、主持人 Pradeep Dubey 回答记者提问时表示,机器学习的未来就是要多多关注深度学习,因为深度学习已经展现出强大的实力。《主算法》作者、华盛顿大学教授 Pedro Domingos 也应邀发表讲话,介绍了深度学习的历史。

  近来,英特尔一直在持续推进数据中心和云计算方面的业务,当然也有物联网相关的芯片业务。但是,表现却没有如预期般顺利。为了获得更多订单,英特尔向死敌低头,与竞争对手 ARM 达成代工协议,英特尔未来将生产 ARM 设计的芯片,也将向第三方开放自家的芯片工厂,包括其10纳米生产线,制造基于ARM的智能机芯片。

  可以看出,英特尔在 IDF 上正在全面拥抱深度学习。就在上周,英特尔宣布收购深度学习初创公司 Nervana Systems,也开始在深度学习专用芯片上布局。

  然而,就在这个时候,英伟达在官方博客发表了一篇分析文章,直言英特尔在深度学习基准上面弄不清事实。

  英伟达博文指出,“英特尔也开始做深度学习是好事,深度学习是人工智能时代最重要的计算革命,任何人都无法忽视深度学习。但是,他们应该把事实先弄清。”

  有外媒评论,“或许英伟达在英特尔 IDF 举办同时点下‘发布’按钮并非巧合”,这家媒体还表示自己会拿着爆米花坐等后续。

  这场论战究竟是怎么回事呢?

  英特尔的挑衅

  先把英特尔和英伟达的争论放一边,要说训练深度学习神经网络,GPU 是时下主流的选择,相信这一点应该不会有多少异议。

  GPU 支持并行运算,而且计算精度没有 CPU 那么低——至于 GPU 将来是否会被其他处理器取代,暂时跟本文讨论的议题没有关系。

  过去 5 年来,英伟达一直在深度学习领域默默投入,用 CEO 黄仁勋的话说,“把一切都赌在了深度学习上面”。

  英伟达不仅针对深度学习优化 GPU,还开发了软件,让用户更加方便快速地训练神经网络。而这一点,也是大多数人用机器学习便首先选择英伟达而不是 AMD 的原因。

  英伟达方面曾表示,与 Kepler 时代相比,Pascal 的配套软件让机器学习的性能提升了整整一个数量级。

  不过,GPU 并非竞技场中唯一的玩家。在针对深度学习进行优化的硬件方面,有专注用 FPGA 加速深度学习的,也有像谷歌、CEVA 和 Movidius 那样,自己开发专用深度学习芯片的——至于英特尔,就选择把 Xeon Phi 里的十几个小核心(Bay Trail-T),由 Pentium 架构升级为 Atom 架构,从而与 GPU 相竞争(同时保持 Xeon Phi 的品牌不变)。

  英特尔最近发表了关于 Xeon Phi 基准的一些数据,号称其“Many Integrated Core”(MIC)Phi 架构加速深度学习性能比 GPU 高出很多。

  下面是英特尔的报告:

  深度学习芯片大战升温 英特尔、英伟达各出奇招

  深度学习芯片大战升温 英特尔、英伟达各出奇招

  来源:英特尔报告 Fuel Your Insight

  在发表的报告中,英特尔称:

  4 个 Knights Landing Xeon Phi 芯片比“4 个 GPU”快 2.3 倍;

  Xeon Phi 芯片在多个结点上最高可扩展率为 38%,而且最多可达 128 个结点(英特尔还指出,这对于 GPU 来说是不可能的);

  用 128 个 Xeon Phi 处理器构成的系统比单个的 Xeon Phi 速度快 50 倍(言下之意是说 Xeon Phi 处理器扩展性很好)。

  此外,这份报告中还指出,使用英特尔优化过的版本运行 Caffe 深度学习框架时,Xeon Phi 芯片比标准 Caffe 硬件要快 30 倍。

1  2  下一页>  
责任编辑:Trista
免责声明: 本文仅代表作者个人观点,与 OFweek电子工程网 无关。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅 作参考,并请自行核实相关内容。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: