侵权投诉
订阅
纠错
加入自媒体

实不相瞒,深度学习计算还是得看英伟达

2018-03-29 08:50
来源: IT168

Tesla V100内存翻倍,掀起新一轮小规模计算迭代

英伟达平台在各大云服务提供商和服务器制造商中已得到广泛应用,最强大的数据中心GPU——NVIDIA Tesla V100,也得到了重大提升:2倍内存。如今Tesla V100 GPU配备了32GB内存,将助力数据科学家对更深度、更大规模的深度学习模型进行训练,且比以往都更加精确。与之前的16GB版本相比,它还能将内存受限的HPC应用性能提升高达50%。

Tesla V100 32GB GPU目前可用于所有 NVIDIA DGX 系统。此外,各大计算系统制造商Cray、HPE、IBM、联想、Supermicro和Tyan也宣布将于第二季度内推出各自全新的Tesla V100 32GB系统。Oracle云也宣布计划将于今年下半年在云端提供Tesla V100 32GB。

种种迹象表明,Tesla V100的提升,可能将掀起新一轮数据中心GPU计算平台迭代。当然,客观来讲其规模可能不会太大,这要看企业和组织的实际需求。

软件堆栈更新,推动计算性能提升

英伟达深度学习和 HPC 软件堆栈的更新面向开发者社群免费提供。据了解,当前开发者社群共有超过 82 万名注册用户。此次更新包括新版本的 NVIDIA CUDA、TensorRT、NCCL和cuDNN,以及面向机器人的全新 Isaac软件开发套件。此外,通过与领先云服务提供商的密切合作,各大主流深度学习框架都在持续优化,以充分利用英伟达的GPU计算平台。

今天发布的TensorRT 4推理软件,与谷歌的TensorFlow框架深度融合。据了解,针对计算机视觉、神经网络机器翻译、自动语音识别、语音合成与推荐系统等常见应用,相比CPU,该软件最高可将深度学习推理的速度加快190倍。

另外,最受欢迎的语音识别框架Kaldi现也已针对GPU进行了优化。

深度学习计算≈英伟达

黄教主雷厉风行的个性显然对英伟达也产生了不小的影响,从最初发现GPU在深度学习计算方面的潜力,到如今几乎“无GPU不深度学习”的行业现状,英伟达毅然向人工智能转型,投入大量资源用以研发,不断推陈出新,极大地推动了GPU在人工智能计算的应用,同时更推动了人工智能行业的发展。

本届GTC上关于深度学习的各项重要发布,也再次向我们证明了这一点。基于此,说一句“深度学习计算≈英伟达”不算过分吧。

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    电子工程 猎头职位 更多
    扫码关注公众号
    OFweek电子工程网
    获取更多精彩内容
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号