[译]与TensorFlow的第一次接触(六)之并发

     后面会在微信公众号中推送后续的翻译章节,与TensorFlow的第一次接触系列已整理成pdf,关注公众号后回复:tensorflow即可下载~~公众号:源码之心

《[译]与TensorFlow的第一次接触(六)之并发》 源码之心

 第一版TensorFlow第一版发布于2015年11月,它可以运行在多台服务器的GPU上,同时并在其上面进行训练。2016年2月,更新版中增加了分布式与并发处理。

       在本章简短的小节中,我会介绍如何使用GPU。对想深入理解这些设备是如何工作的读者,最后章节中列出了一些参考引用,本书不会讨论分布式版本中的细节,对分布式细节感兴趣的读者,最后章节中同样列出了一些参考引用。

GPU的执行环境

       如果需要TensorFlow支持GPU,需要安装CudaToolkit 7.0 and CUDNN 6.5 V2。为安装这些环境,建议读者访问cuda的官网来了解安装细节。

      TensorFlow中引用这些设备的方式如下:

“/cpu:0”: To reference the server’s CPU.

“/gpu:0”: The server’s GPU, if only one is available.

“/gpu:1”: The second server’s GPU, and so on.

      为了追踪操作与tensor被分配到哪个设备上了,我们需要以log_device_placement设置为true作为参数来创建session,示例代码如下:

《[译]与TensorFlow的第一次接触(六)之并发》

当读者在自己电脑上测试本代码时,会看如下类似的相关输出:

《[译]与TensorFlow的第一次接触(六)之并发》

       同时,根据这个输出结果,我们同样可看到每一部分是在哪调度执行的。

       如果我们希望一个具体的操作调度到一个具体的设备上执行,而不是由系统自动选择设备,我们可通过tf.device来创建设备上下文,所有在该上下文中的操作都会调度到该设备中。

       如果系统中不止一个GPU,默认选择较小编号的GPU。假如我们想在不同的GPU上执行操作,需要显式指明。例如,如果我们想让之前的代码在GPU2上执行,可通过tf.device(“/gpu:2”)来指定:

《[译]与TensorFlow的第一次接触(六)之并发》

多个GPU并发

       假如我们有不止一个CPU,通常我们想在解决一个问题时并发使用民有GPU。例如,我们可建立模型来将工作分布式分发到多个GPU上,示例如下:

《[译]与TensorFlow的第一次接触(六)之并发》

       代码与之前的代码功能类似,但是现在有2个GPU来执行乘法计算(为简化示例,两个GPU执行的逻辑一样),稍后CPU执行加法计算。因为log_device_placement设置为true,我们可看到操作是如何在多个设备间分布式分发的:

《[译]与TensorFlow的第一次接触(六)之并发》

编码实现多GPU

       我们通过一个代码例子为总结这一简短的小节,代码例子与DamienAymeric在Github上分享的类似,n=10时,计算An+Bn,比较1个GPU与2个GPU的执行时间。

首先,导入需要库:

《[译]与TensorFlow的第一次接触(六)之并发》

通过numpy库用随机值创建两个矩阵:

《[译]与TensorFlow的第一次接触(六)之并发》

然后创建两个结构体来存储结果:

《[译]与TensorFlow的第一次接触(六)之并发》

接下来,定义matpow()函数如下:

《[译]与TensorFlow的第一次接触(六)之并发》

如果在一个GPU上执行这段代码,过程如下:

《[译]与TensorFlow的第一次接触(六)之并发》

如果在2个GPU上运行,代码如下:

《[译]与TensorFlow的第一次接触(六)之并发》

最后,打印计算时间:

《[译]与TensorFlow的第一次接触(六)之并发》

分布式版本TensorFlow

       如之前所说,Google在2016年2月开源了分布式版本的TensorFlow,其基于gRPC,一个用来进程间通信的,高性能开源RPC框架(TensorFlow Serving使用同样的协议)。

       如果想使用分布式版本,需要自己编译二进制程序,因为目前该库只以源码的形式提供。本书不会讨论分布式版本的细节,如果读者想了解关于分布式的信息,建议访问TensorFlow分布式版本的官网。

     跟之前章节类似,本章中的代码同样能在Github上获得。我希望本章节已经描述清楚了如何通过多GPU来加速训练模型。

    原文作者:cn_Fly
    原文地址: https://www.jianshu.com/p/e8a267e9f47b
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞