专栏名称: 亚马逊云科技
亚马逊AWS的公众号,第一时间获取关于AWS国内外服务的资讯。AWS中国(北京)区域由光环新网运营。
目录
相关文章推荐
跟宇宙结婚  ·  节目更新:跟宇宙结婚悄悄话 vol.223 ... ·  2 天前  
跟宇宙结婚  ·  晒好物:《跟宇宙结婚》9周年纪念可乐套装 ·  4 天前  
跟宇宙结婚  ·  节目更新:vol.429 ... ·  5 天前  
51好读  ›  专栏  ›  亚马逊云科技

再次引爆核弹 | AWS和NVIDIA在全球范围扩大深度学习合作伙伴关系

亚马逊云科技  · 公众号  ·  · 2017-05-19 17:56

正文

在人工智能与深度学习领域

如果有人需要“核武器”一般的强大设备

官微君一定会向他推荐这个东西:

哦哦哦,不好意思,

这个各国都签署过协议,不让使用~


不过,我们最近还有更厉害的,那就是:

基于Volta架构的、迄今为止最先进的

深度学习 GPU ——Tesla V100

Tesla  V100 使用了 TSMC 12nm FFN工艺,制造有史以来最大的815mm² GPU核心。Tesla V100拥有5120 个 CUDA 内核,核心频率为1455MHz,16GB HBM2显存,浮点性能更是达到单精度浮点15 TFLOPS,双精度浮点7.5 TFLOPS。Tesla V100最大变化就是增加了与深度学习高度相关的张量核(Tensor Cores),Tensor性能可以达到120 TFLOPS!


核弹,绝对的核弹!

并且现在,AWS还要帮所有AI开发人员

引爆这枚核弹!

在今年的NVIDIA的GPU技术大会 (GTC)上,AWS和NVIDIA合作开展了多项举措。

首先,是令人兴奋的全新的基于Volta的GPU实例,3倍加速的深度学习训练性能将完全改变AI开发人员的面貌。 


其次,宣布计划通过在AWS上运行的深度学习研究院(DLI)培训10万多名深度学习开发人员。 


第三,共同开发能够为更广泛的开发者社区进行大规模深入学习的工具。


另外,AWS展示了低功耗器件上的深度学习,包括在Amazon EC2 P2实例上使用Apache MXNet训练,并把模型部署在NVIDIA的Jetson TX2平台 。 

即将到来的新EC2 GPU实例

Tesla V100基于Volta架构并配备了640个张量核(Tensor Cores),提供了突破性的 120 Teraflops混合精度深度学习性能 。AWS非常高兴即将在Amazon EC2实例上支持V100。这种支持意味着越来越多的深度学习社区可以利用云端的超级计算能力,训练更深层次的模型,推动AI发展的极限。


此外,与NVIDIA合作,AWS工程师和研究人员在Apache MXNet上预先优化了神经机器翻译(NMT)算法。 这种方法允许开发人员现在可以在基于Volta的平台上以最快的方式训练。 

为全球100,000多名开发人员

提供深入的学习

AWS很高兴与NVIDIA合作,为深度学习研究院(DLI)提供课程支持。DLI正在扩大其课程,包括应用于自动驾驶、医疗保健、网络服务、机器人、视频分析和金融服务等深度学习领域。 该课程包括由导师主持的研讨会、讲座和课程,覆盖亚洲、欧洲和美洲的开发人员。 


AWS的全球基础设施遍及16个区域(还有3个)和42个可用区(另有8个在计划中),是完美的深度学习基础设施平台,可以覆盖最广泛的开发人员。

给深度学习使用者

带来更多便利性和扩展性 

过去,搭建深度学习的环境并满足性能,要求训练深层神经网络,了解分布式消息传递接口(MPI),以及设置具有多个依赖关系的多个库和包。AWS与NVIDIA合作创建优化的开发人员工具包,为开发人员轻松实现可扩展的深度学习环境。 这些工具是使用NVIDIA Deep Learning SDK库(如cuDNN,NCCL,TensorRT和CUDA工具包)进行预构建的。 当开发人员使用这些工具时, 可以轻松扩展到大量的GPU规模。 

将云端的深度学习带到边缘设备

低功耗器件上的深度学习是目前深度学习的重要趋势之一。在边缘设备上运行深度学习模型的需求来自数据本地化、快速响应本地事件和脱机运行。


在GTC的AWS专场上,我们展示了如何使用P2实例训练最先进的模型,和如何轻松部署在各种低功耗设备(包括Jetson TX2平台)上,为低功耗设备带来人工智能 。然后,您可以通过AWS IoT和AWS Greengrass等服务来管理这些设备,从而提供端到端的AI工作流程。

马上点击“阅读原文

了解更多Amazon EC2

   开启你的云端AI开发之旅!