Nvidia更新发布四大深度学习技术,个个抢眼,两项免费!

在盐湖城举行的计算机视觉和模式识别会议(CVPR)期间,英伟达(NVIDIA)宣布了一系列针对其云计算软件和硬件计划的深度学习重点更新。包括Apex,PyTorch库的开源深度学习扩展;NVIDIA DALI和NVIDIA nvJPEG,用于数据优化和图像解码的GPU加速库;NVIDIA GPU上Kubernetes的候选版本;以及推理优化器和运行时引擎TensorRT的第4版。
 
Apex
 
NVIDIA展示了Apex的早期发布版本。NVIDIA表示,灵感来自最先进的模式识别技术,如翻译网络中的混合精确培训,情感分析和图像分类,在Apex上加速NVIDIA Volta GPU上深度学习模式的培训,同时瞄准与单精度培训模型类似的稳定性。
 
NVIDIA介绍,“具体来说,Apex提供FP16或FP32操作的自动执行,主参数转换的自动处理以及自动损失调整,所有这些操作都可以对现有代码进行4行或更少的行修改。”
 
虽然仍在积极开发之中,但Apex的早期发布版本可通过GitHub下载,NVIDIA希望根据社区反馈改进扩展。
 
NVIDIA DALI和NVIDIA nvJPEG
 
针对与深度学习驱动的计算机视觉应用中的图像识别和解码相关的性能瓶颈,NVIDIA正在将GPU的强大功能与NVIDIA DALI相结合,NVIDIA DALI利用新的NVIDIA nvJPEG库以更快的速度解码图像。
 
NVIDIA指出,“通过DALI,深度学习研究人员可以通过MXNet,TensorFlow和PyTorch跨越AWS P3 8 GPU实例或带Volta GPU的DGX-1系统,在图像分类模型上调整训练性能,例如ResNet-50。由于跨框架的一致的高性能数据加载和增强,框架用户将会减少代码重复。”
 
NVIDIA强调,“NVIDIA nvJPEG支持单一和批量图像的解码,色彩空间转换,多阶段解码以及使用CPU和GPU的混合解码。与纯CPU解码相比,依靠nvJPEG进行解码的应用提供更高的吞吐量和更低的延迟JPEG解码。”
 
NVIDIA GPU上的Kubernetes
 
在CVPR会议上,还看到NVIDIA在NVIDIA GPU上实现免费提供的Kubernetes,允许开发人员测试该工具将容器化应用程序部署到多云GPU群集并自动进行部署,维护,调度和运营的能力。
 
NVIDIA表示,“随着人工智能应用和服务数量的增加以及公有云中GPU的广泛可用性,开源Kubernetes需要具备GPU能力。借助NVIDIA GPU上的Kubernetes,软件开发人员和DevOps工程师可以无缝地大规模构建和部署GPU加速的深度学习培训或推理应用程序,以适应不同规模的GPU集群。”
 
TensorRT 4
 
TensorRT 4的发布,它增加了新的递归神经网络层,多层Perceptron,本地ONNX解析器以及与推理优化器和运行时引擎的TensorFlow集成。

 
NVIDIA指出,“其他功能包括能够使用FP16精度执行自定义神经网络层,并通过NVIDIA DRIVE AI平台支持Xavier SoC。TensorRT 4加速了深度学习推理应用,例如神经机器翻译,推荐系统,GPU上的语音和图像处理应用。我们在这些应用领域测量了45倍到190倍的加速。”
 
TensorRT4免费提供给NVIDIA注册开发者计划的所有成员。
上一篇:英伟达GPU上发布Kubernetes以加速深度学习负载
下一篇:全面解析NVIDIA DGX-2,助您应对最复杂的 AI 挑战