实不相瞒,深度学习计算还是得看英伟达
Tesla V100内存翻倍,掀起新一轮小规模计算迭代
英伟达平台在各大云服务提供商和服务器制造商中已得到广泛应用,最强大的数据中心GPU——NVIDIA Tesla V100,也得到了重大提升:2倍内存。如今Tesla V100 GPU配备了32GB内存,将助力数据科学家对更深度、更大规模的深度学习模型进行训练,且比以往都更加精确。与之前的16GB版本相比,它还能将内存受限的HPC应用性能提升高达50%。
Tesla V100 32GB GPU目前可用于所有 NVIDIA DGX 系统。此外,各大计算系统制造商Cray、HPE、IBM、联想、Supermicro和Tyan也宣布将于第二季度内推出各自全新的Tesla V100 32GB系统。Oracle云也宣布计划将于今年下半年在云端提供Tesla V100 32GB。
种种迹象表明,Tesla V100的提升,可能将掀起新一轮数据中心GPU计算平台迭代。当然,客观来讲其规模可能不会太大,这要看企业和组织的实际需求。
软件堆栈更新,推动计算性能提升
英伟达深度学习和 HPC 软件堆栈的更新面向开发者社群免费提供。据了解,当前开发者社群共有超过 82 万名注册用户。此次更新包括新版本的 NVIDIA CUDA、TensorRT、NCCL和cuDNN,以及面向机器人的全新 Isaac软件开发套件。此外,通过与领先云服务提供商的密切合作,各大主流深度学习框架都在持续优化,以充分利用英伟达的GPU计算平台。
今天发布的TensorRT 4推理软件,与谷歌的TensorFlow框架深度融合。据了解,针对计算机视觉、神经网络机器翻译、自动语音识别、语音合成与推荐系统等常见应用,相比CPU,该软件最高可将深度学习推理的速度加快190倍。
另外,最受欢迎的语音识别框架Kaldi现也已针对GPU进行了优化。
深度学习计算≈英伟达
黄教主雷厉风行的个性显然对英伟达也产生了不小的影响,从最初发现GPU在深度学习计算方面的潜力,到如今几乎“无GPU不深度学习”的行业现状,英伟达毅然向人工智能转型,投入大量资源用以研发,不断推陈出新,极大地推动了GPU在人工智能计算的应用,同时更推动了人工智能行业的发展。
本届GTC上关于深度学习的各项重要发布,也再次向我们证明了这一点。基于此,说一句“深度学习计算≈英伟达”不算过分吧。
图片新闻
技术文库
最新活动更多
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
-
1月9日立即预约>>> 【直播】ADI电能计量方案:新一代直流表、EV充电器和S级电能表
-
即日-1.16立即报名>>> 【在线会议】ImSym 开启全流程成像仿真时代
-
即日-1.20限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
即日-1.24立即参与>>> 【限时免费】安森美:Treo 平台带来出色的精密模拟
-
即日-1.31立即参与>>> 【限时免费下载】村田白皮书
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论