在上一篇中我们介绍了 mpi4py 中组合发送接收通信方法,至此我们就对 mpi4py 中提供的各种点到点通信方法都做了一个简略的介绍,并给出了简短的使用例程。下面我们对点到点通信做一个小结。
通过前面的介绍可知,点到点通信有各种不同的模式,可分为阻塞通信,非重复非阻塞通信,可重复非阻塞通信,其中每一类还可分为标准、缓冲、就绪和同步模式。要理解各种模式通信的行为,关键是弄清楚各个模式对缓冲使用的方式。简言之,各个模式使用缓冲的特点可总结为:标准的 Send 实际利用了 MPI 环境提供的默认缓冲区;缓冲的 Bsend 实际相当于将 MPI 环境提供的缓冲区放在用户空间管理;就绪的 Rsend 实际相当于不要缓冲区,但发送端不能提前等待;同步的 Ssend 实际也相当于不要缓冲区,但允许等待。异步方式下各个模式工作原理也类似,只不过可将其理解为 MPI 环境会另起一个线程在后台做实际的消息传输,通过 MPI_Wait*,MPI_Test* 等机制与 MPI 进程的主线程进行通信和同步。
点到点通信特别需要注意的一件事就是预防死锁,导致死锁的原因有很多,其中最典型的是缓冲区争夺导致的死锁,比如下面这个例子:
# Send_Recv_small.py
import numpy as np
from mpi4py import MPI
comm = MPI.COMM_WORLD
rank = comm.Get_rank()
size = comm.Get_size()
other = 1 if rank == 0 else 0
count = 10
# count = 1024 # will lead to dead lock
send_buf = np.arange(count, dtype='i')
recv_buf = np.empty(count, dtype='i')
print 'process %d trying sending...' % rank
comm.Send(send_buf, dest=other, tag=12)
print 'process %d trying receiving...' % rank
comm.Recv(recv_buf, source=other, tag=12)
print 'process %d done.' % rank
运行结果如下:
$ mpiexec -n 2 python Send_Recv_small.py
process 0 trying sending...
process 0 trying receiving...
process 0 done.
process 1 trying sending...
process 1 trying receiving...
process 1 done.
上面这个例子中两个进程同时向对方发送且从对方接收消息,但因为发送和接收的消息比较小,并未超出 MPI 环境提供的默认缓冲区容量,所以能够顺利执行。现在我们试着将上例中的 count
改成 1024(或者更大,依赖于你的 MPI 环境配置),则运行结果如下:
$ mpiexec -n 2 python Send_Recv_small.py
process 0 trying sending...
process 1 trying sending...
两个进程都阻塞在 Send 处无法前进,原因是两者的发送操作都先于接收操作启动,当发送数据量超过 MPI 环境提供的默认缓冲区空间大小时,每个进程都要等待对方启动接收动作把这个“过量”的数据直接取走。但是因为使用的是阻塞发送,在没有完成接收之前,双方的发送函数都不会返回,因而接收动作都得不到执行,于是两个进程都因等待接收而阻塞在发送步骤上,程序出现了死锁。
对于这种类型的死锁,解决办法有如下几个:
- 确保一次发送数据量小于 MPI 环境所能提供缓冲区容量;
- 利用 MPI 环境消息发送接收的顺序性约束,调整语句的执行顺序;
- 使用缓冲发送模式;
- 使用非阻塞通信;
- 利用组合发送接收。
我们不一一列举这些解决方案,只给出其中的一个例子,即调整语句的执行顺序来防止死锁,如下:
# Send_Recv_large.py
import numpy as np
from mpi4py import MPI
comm = MPI.COMM_WORLD
rank = comm.Get_rank()
size = comm.Get_size()
other = 1 if rank == 0 else 0
count = 1024
send_buf = np.arange(count, dtype='i')
recv_buf = np.empty(count, dtype='i')
if rank == 0:
print 'process %d trying sending...' % rank
comm.Send(send_buf, dest=other, tag=12)
print 'process %d trying receiving...' % rank
comm.Recv(recv_buf, source=other, tag=12)
print 'process %d done.' % rank
elif rank == 1:
print 'process %d trying receiving...' % rank
comm.Recv(recv_buf, source=other, tag=12)
print 'process %d trying sending...' % rank
comm.Send(send_buf, dest=other, tag=12)
print 'process %d done.' % rank
运行结果如下:
$ mpiexec -n 2 python Send_Recv_large.py
process 0 trying sending...
process 0 trying receiving...
process 0 done.
process 1 trying receiving...
process 1 trying sending...
process 1 done.
经过语句的调整,每个进程的发送操作都可优先匹配到对方的接收动作,待消息传输完毕后才进行下一次通信,因此可消除由缓冲区竞争所导致的死锁。
MPI 对消息传递的执行顺序有一定的规定,但 MPI 环境并不提供保证“公平性”的措施,具体如下:
- 顺序规定
- MPI 环境保证了消息传递的顺序,即先后发送的消息在接收端不会发生顺序颠倒。
- 如果发送进程向同一个目标进程先后发送了 m1 和 m2 两个消息,即使 m1 和 m2 都与同一个接收函数匹配,接收进程也只能先接收 m1 再接收 m2。
- 如果接收进程先后启动两个接收动作 r1 和 r2,都尝试接收同一个消息,则 r1 必须在 r2 之前接收到消息。
- 但对使用了多线程的 MPI 环境而言,上述顺序规定不一定成立。
- 公平性
- MPI 环境并不提供保证“公平性”的措施,用户自己必须在程序设计中解决“操作饥饿”问题,例如进程 0 和进程 1 同时向进程 2 发送消息,并与其中的同一个接收操作相匹配,则只有一个进程的发送动作能够完成。
以上简要总结了 mpi4py 中的点到点通信,在下一篇中我们将介绍组与通信子的基本概念。