Python: Windows下用 multiprocessing 的深坑

笔者某天在测试多进程时, 发现了一个问题

测试代码:

#coding: utf8
from multiprocessing import Process 
import os 
print('Global_print', os.getpid())
def run_proc(name):

   print('Run child process %s (%s)…' % (name, os.getpid()))
if __name__=='__main__': 
   p = Process(target=run_proc, args=('test',)) 
   print(os.getpid()) 
   p.start()

上述代码不复杂, 肉眼就能猜出八九分: 父进程来执行了首尾的两个 print, 而子进程则只执行 run_proc 。

下面就这针对这一个猜测来验证:

在Linux下:

'Global_print', 14382
14382
Run child process test (14383)…

很符合我们的预期, 因为两次 os.getpid() 得到了一样的结果, 而子进程的那句输出也从侧面验证了另外两句 print 是父进程执行的.

接下来看下Windows:

《Python: Windows下用 multiprocessing 的深坑》

What ???…

在测试了 debian/centos 等等 unix/linux 不同发行版和不同 Python 版本, 表现均为一致, 也就是上面 Linux 的输出。

然而,在 Windows下也也是很顽固的和上面的输出不一致。众所周知, Windows 和 Linux 在实现多进程上面是有点区别的..

于是, 感觉应该是 Windows 自身的问题, 在咨询了大佬之后, 得知官网早已有对这块进行说明了:

传送门: https://docs.python.org/2/library/multiprocessing.html?highlight=process#windows

资料说明如下:

《Python: Windows下用 multiprocessing 的深坑》

简单的意思应该是下面这样:

因为 Windows 缺乏 Linux 那种 fork, 所以它会有一些额外的限制:

  • 不管是绑定还是未绑定的方法, 都不要直接作为参数传给 Process 初始化的 target, 相反应该要用普通的函数代替

  • 子进程在访问全局变量时, 可能会与父进程的值不同。 ( 模块级别的常量没这问题 )

  • 开启新Python 解析器或者创建新 process 时, 确定主模块能够安全的导入。

而刚才的那个问题, 就是因为没有注意到第三点, 所以导致了意想不到的的副作用, 应该用下面的写法取代上面的不安全写法:

from multiprocessing import Process, freeze_support

def foo():
   print 'hello'

if __name__ == '__main__':
   freeze_support()
   p = Process(target=foo)
   p.start()

果然 Windows 无处不在都在挖坑….

作者:Lin_R
原文链接:httpt.cnR1Q19ML

最新公告通知

第 19 期【Python自动化运维入门】正在火热招生中
第 8 期【Python自动化运维进阶】正在招生中

《Python: Windows下用 multiprocessing 的深坑》

    原文作者:51reboot
    原文地址: https://www.jianshu.com/p/5d4ea6282c90
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞