专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
目录
相关文章推荐
人工智能学家  ·  图灵奖得主杨立昆:AI需要学习物理学才能继续 ... ·  2 天前  
爱可可-爱生活  ·  自演化偏好优化让小型语言模型更聪明 ... ·  2 天前  
爱可可-爱生活  ·  R1-Searcher:让AI学会主动搜索 ... ·  2 天前  
51好读  ›  专栏  ›  机器之心

业界 | Poseidon:高效的分布式深度学习通信架构

机器之心  · 公众号  · AI  · 2017-06-17 11:58

正文

选自 arXiv

机器之心编译

参与:蒋思源、吴攀


近日,卡耐基梅隆大学(CMU)和 Petuum 推出了新一代高效的分布式深度学习通信架构 Poseidon。Poseidon 是一个易于使用,并能放大 DL 程序在 GPU 集群性能的通信架构。已存的 DL 程序不需要更改代码就能通过 Poseidon 在多个机器上自动最优地实现并行化,加速效果和机器数量呈线性增长关系。机器之心简要地介绍了该论文,详细内容请查看原论文。


论文: Poseidon: An Efficient Communication Architecture for Distributed Deep Learning on GPU Clusters


论文链接: https://arxiv.org/abs/1706.03292



深度学习模型在单 GPU 机器上可能需要花费数周的时间进行训练,因此将深度学习分布到 GPU 集群进行训练就显得十分重要了。然而相对于 CPU,拥有更大的吞吐量的 GPU 允许单位时间内处理更多的数据批量(batches),因此目前的分布式 DL 因为大量参数频繁地在网络中进行同步而表现不佳。


我们提出了 Poseidon,它是一个分布式 DL 在 GPU 上可实现高效通信的架构。Poseidon 利用深度程序中的层级模型结构而叠加通信与计算,这样以减少突发性网络通信。此外,Poseidon 使用混合的通信方案,并根据层级属性和机器数量优化每一层同步所要求的字节数。我们表明 Poseidon 能使 Caffe 和 TensorFlow 在 16 个单 GPU 机器上实现 15.5 倍的加速,而且该实验还是在有带宽限制(10GbE)并挑战 VGG19-22K 图像分类网络下完成的。此外,Poseidon 能使 TensorFlow 在 32 个单 GPU 机器上运行 Inception-V3 达到 31.5 倍的加速,相比于开源的 TensorFlow 实现 50% 的性能提升(20 倍加速)。


图1. 六层卷积神经网络


图 2:(a)参数服务器和(b)分布式 ML 的充分因子 broadcasting。


图 3:分布式环境中的(a)传统反向传播和(b)无等待(wait-free)反向传播。


表 2:用于参数同步的 Poseidon API。


图 4:Poseidon 架构的概览。


表 3:神经网络的评估。其中展示了单结点批量大小,这些批量大小是基于文献中的标准报告而选择的(通常最大的批量大小正好是 GPU 的内存大小)。







请到「今天看啥」查看全文