侵权投诉
当前位置:

OFweek电子工程网

嵌入式设计

正文

Xeon Phi较GPU快上2.3倍?NVIDIA、英特尔上演隔空驳火

导读: 全球人工智能(AI)热潮兴起,面对潜在庞大应用芯片商机,芯片制造商早已摩拳擦掌抢进,带动竞争日趋激烈,此前NVIDIA即表示,借由其GP-GPU运算倡议在数据中心市场取得很大进展,当前采用GPU芯片处理深度学习(DL)神经网路这类AI应用已成主流,

  全球人工智能(AI)热潮兴起,面对潜在庞大应用芯片商机,芯片制造商早已摩拳擦掌抢进,带动竞争日趋激烈,此前NVIDIA即表示,借由其GP-GPU运算倡议在数据中心市场取得很大进展,当前采用GPU芯片处理深度学习(DL)神经网路这类AI应用已成主流,

  据Venture Beat网站报导,对此英特尔(Intel)数据中心解决方案团队总经理暨企业副总裁Jason Waxman发文反击,称Xeon芯片才是全球AI服务器市场的绝对领导性产品。

  Waxman指出,Xeon芯片在全球AI服务器市场占有主导地位,并占有全球支援AI应用服务器芯片市场超过97%市占率,但只有不到3%的AI服务器设备是采用GPU,即使一直以来外界有许多在谈论GPU对机器学习(ML)的价值。等于对NVIDIA的说法做出回击。

  Waxman表示,业界需要突破可扩展及开放的运算能力,以促进广泛的开发者社群创新。英特尔在开发者论坛(IDF)上,也说明如何推出AI产业领先平台的计划。

  英特尔此前曾透露,其代号“Knights Mill”的下一代Xeon Phi处理器将在2017年发表,并锁定在AI领域。英特尔指出Xeon Phi处理器的运算能力将优于目前市场上的GPU芯片,称Xeon Phi训练速度较GPU快上2.3倍,对此NVIDIA曾撰文反驳英特尔,让双方的隔空驳火愈演愈烈。

  此前英特尔以逾3.5亿美元收购Nervana Systems,借以强化自有AI技术。可见随着芯片市场竞争日益激烈,业者们用于强化自有技术优势的途径也愈来愈多。

声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: