专栏名称: Python开发者
人生苦短,我用 Python。伯乐在线旗下账号「Python开发者」分享 Python 相关的技术文章、工具资源、精选课程、热点资讯等。
目录
相关文章推荐
Python爱好者社区  ·  无人报考!顶尖大学,校区关停 ·  2 天前  
Python爱好者社区  ·  卧槽,这就是最牛逼的python教程 ·  3 天前  
Python开发者  ·  matplotlib + ... ·  6 天前  
Python开发者  ·  突发!OpenAI 紧急上书,呼吁禁用 ... ·  6 天前  
Python开发者  ·  Jupyter Notebook实用插件分享 ·  6 天前  
51好读  ›  专栏  ›  Python开发者

Python 多进程并行编程实践 - multiprocessing 模块

Python开发者  · 公众号  · Python  · 2017-04-17 22:08

正文

(点击 上方蓝字 ,快速关注我们)


伯乐在线专栏作者 - iPytLab

如有好文章投稿,请点击 → 这里了解详情


前言


并行计算是使用并行计算机来减少单个计算问题所需要的时间,我们可以通过利用编程语言显式的说明计算中的不同部分如何再不同的处理器上同时执行来设计我们的并行程序,最终达到大幅度提升程序效率的目的。


众所周知,Python中的GIL限制了Python多线程并行对多核CPU的利用,但是我们仍然可以通过各种其他的方式来让Python真正利用多核资源, 例如通过C/C++扩展来实现多线程/多进程, 以及直接利用Python的多进程模块multiprocessing来进行多进程编程。


本文主要尝试仅仅通过python内置的multiprocessing模块对自己的动力学计算程序来进行优化和效率提升,其中:


  • 实现了单机利用多核资源来实现并行并进行加速对比

  • 使用manager模块实现了简单的多机的分布式计算


本文并不是对Python的multiprocessing模块的接口进行翻译介绍,需要熟悉multiprocessing的童鞋可以参考官方文档https://docs.python.org/2/library/multiprocessing.html。


正文


最近想用自己的微观动力学程序进行一系列的求解并将结果绘制成二维Map图进行可视化,这样就需要对二维图上的多个点进行计算并将结果收集起来并进行绘制,由于每个点都需要进行一次ODE积分以及牛顿法求解方程组,因此要串行地绘制整张图可能会遇到极低的效率问题尤其是对参数进行测试的时候,每画一张图都需要等很久的时间。其中绘制的二维图中每个点都是独立计算的,于是很自然而然的想到了进行并行化处理。


串行的原始版本


由于脚本比较长,而且实现均为自己的程序,脚本的大致结构如下, 本质是一个二重循环,循环的变量分别为反应物气体(O2 和 CO)的分压的值:


import time

import numpy as np

# 省略若干...

pCOs = np . linspace ( 1e - 5 , 0.5 , 10 )

pO2s = np . linspace ( 1e - 5 , 0.5 , 10 )

if "__main__" == __name__ :

try :

start = time . time ()

for i , pO2 in enumerate ( pO2s ) :

# ...

for j , pCO in enumerate ( pCOs ) :

# 针对当前的分压值 pCO, pO2进行动力学求解

# 具体代码略...

end = time . time ()

t = end - start

finally :

# 收集计算的结果并进行处理绘图


整体过程就这么简单,我需要做的就是使用multiprocessing的接口来对这个二重循环进行并行化。


使用单核串行绘制100个点所需要的时间如下, 总共花了240.76秒:



二维map图绘制的效果如下:


进行多进程并行处理


multiprocessing模块


multiprocessing模块提供了类似threading模块的接口,并对进程的各种操作进行了良好的封装,提供了各种进程间通信的接口例如Pipe, Queue等等,可以帮助我们实现进程间的通信,同步等操作。


使用Process类来动态创建进程实现并行


multiprocessing模块提供了Process能让我们通过创建进程对象并执行该进程对象的start方法来创建一个真正的进程来执行任务,该接口类似threading模块中的线程类Thread.


但是当被操作对象数目不大的时候可以使用Process动态生成多个进程,但是如果需要的进程数一旦很多的时候,手动限制进程的数量以及处理不同进程返回值会变得异常的繁琐,因此这个时候我们需要使用进程池来简化操作。


使用进程池来管理进程


multiprocessing模块提供了一个进程池Pool类,负责创建进程池对象,并提供了一些方法来讲运算任务offload到不同的子进程中执行,并很方便的获取返回值。例如我们现在要进行的循环并行便很容易的将其实现。


对于这里的单指令多数据流的并行,我们可以直接使用Pool.map()来将函数映射到参数列表中。Pool.map其实是map函数的并行版本,此函数将会阻塞直到所有进程全部结束,而且此函数返回的结果顺序仍然不变。


首先,我先把针对每对分压数据的处理过程封装成一个函数,这样可以将函数对象传递给子进程执行。


import time

from multiprocessing import Pool

import numpy as np

# 省略若干...

pCOs = np . linspace ( 1e - 5 , 0.5 , 10 )

pO2s = np . linspace ( 1e - 5 , 0.5 , 10 )

def task ( pO2 ) :

'''接受一个O2分压,根据当前的CO分压进行动力学求解'''

# 代码细节省略...

if "__main__" == __name__ :

try :

start = time . time ()

pool = Pool () # 创建进程池对象,进程数与multiprocessing.cpu_count()相同

tofs = pool . map ( task , pCOs ) # 并行执行函数

end = time . time ()

t = end - start

finally :

# 收集计算的结果并进行处理绘图


使用两个核心进行计算,计算时间从240.76s降到了148.61秒, 加速比为1.62



对不同核心的加速效果进行测试


为了查看使用不同核心数对程序效率的改善,我对不同的核心数和加速比进行了测试绘图,效果如下:


运行核心数与程序运行时间:


运行核心数与加速比:



可见,由于我外层循环只循环了10次因此使用的核心数超过10以后核心数的增加并不能对程序进行加速,也就是多余的核心都浪费掉了。


使用manager实现简单的分布式计算


前面使用了multiprocessing包提供的接口我们使用了再一台机器上进行多核心计算的并行处理,但是multiprocessing的用处还有更多,通过multiprocessing.managers模块,我们可以实现简单的多机分布式并行计算,将计算任务分布到不同的计算机中运行。


Managers提供了另外的多进程通信工具,他提供了在多台计算机之间共享数据的接口和数据对象,这些数据对象全部都是通过代理类实现的,比如ListProxy和DictProxy等等,他们都实现了与原生list和dict相同的接口,但是他们可以通过网络在不同计算机中的进程中进行共享。


关于managers模块的接口的详细使用可以参考官方文档:https://docs.python.org/2/library/multiprocessing.html#managers


好了现在我们开始尝试将绘图程序改造成可以在多台计算机中分布式并行的程序。改造的主要思想是:


  1. 使用一台计算机作为服务端(server),此台计算机通过一个Manager对象来管理共享对象,任务分配以及结果的接收,并再收集结果以后进行后处理(绘制二维map图)。

  2. 其他多台计算机可以作为客户端来接收server的数据进行计算,并将结果传到共享数据中,让server可以收集。同时再client端可以同时进行上文所实现的多进程并行来充分利用计算机的多核优势。


大致可总结为下图:



服务进程


首先服务端需要一个manager对象来管理共享对象


def get_manager () :

'''创建服务端manager对象.

'''

# 自定义manager类

class JobManager ( BaseManager ) :

pass

# 创建任务队列,并将此数据对象共享在网络中

jobid_queue = Queue ()

JobManager . register ( 'get_jobid_queue' , callable = lambda : jobid_queue )

# 创建列表代理类,并将其共享再网络中

tofs = [ None ] * N

JobManager . register ( 'get_tofs_list' , callable = lambda : tofs , proxytype = ListProxy )

# 将分压参数共享到网络中

JobManager . register ( 'get_pCOs' , callable = lambda : pCOs , proxytype = ListProxy )

JobManager . register ( 'get_pO2s' , callable = lambda : pCOs , proxytype = ListProxy )

# 创建manager对象并返回

manager = JobManager ( address = ( ADDR , PORT ), authkey = AUTHKEY )

return manager


1. BaseManager.register是一个类方法,它可以将某种类型或者可调用的对象绑定到manager对象并共享到网络中,使得其他在网络中的计算机能够获取相应的对象。


例如,


JobManager.register('get_jobid_queue', callable=lambda: jobid_queue)


我就将一个返回任务队列的函数对象同manager对象绑定并共享到网络中,这样在网络中的进程就可以通过自己的manager对象的get_jobid_queue方法得到相同的队列,这样便实现了数据的共享.


2. 创建manager对象的时候需要两个参数,


  • address, 便是manager所在的ip以及用于监听与服务端连接的端口号,例如我如果是在内网中的192.168.0.1地址的5000端口进行监听,那么此参数可以是('192.169.0.1, 5000)`

  • authkey, 顾名思义,就是一个认证码,用于验证客户端时候可以连接到服务端,此参数必须是一个字符串对象.


进行任务分配


上面我们将一个任务队列绑定到了manager对象中,现在我需要将队列进行填充,这样才能将任务发放到不同的客户端来进行并行执行。


def fill_jobid_queue ( manager , nclient ) :

indices = range ( N )







请到「今天看啥」查看全文


推荐文章
Python爱好者社区  ·  无人报考!顶尖大学,校区关停
2 天前
Python爱好者社区  ·  卧槽,这就是最牛逼的python教程
3 天前
Python开发者  ·  matplotlib + pynimate,轻松让数据动起来!
6 天前
Python开发者  ·  Jupyter Notebook实用插件分享
6 天前
金乡大蒜辣椒国际交易市场  ·  2017年3月12日金乡大蒜辣椒国际交易市场辣椒、大蒜行情
8 年前
孔明湿兄  ·  内涵段子 | 今天哥和你姐结婚呢
7 年前
中国舞台美术学会  ·  舞台丨树林里的彩色霓虹游乐场
7 年前