tensorflow的模型读写

保存一个简单的会话

import tensorflow as tf

v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()

with tf.Session() as sess:
    init_op = tf.initialize_all_variables()
    sess.run(init_op)
    saver.save(sess, "D:/python/ten_test/me/model.ckpt")

运行后在本地的me文件夹中多了以下四个文件:

《tensorflow的模型读写》

具体这几个文件的作用不予赘述,网上都可以搜到。

读取该会话

import tensorflow as tf

v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()

with tf.Session() as sess:
    saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
    print(sess.run(result))

如此的运行结果为:

《tensorflow的模型读写》

可知,在这里,取出来的会话内容为对v1和v2的初始化操作。

保存变量

在使用滑动平均值的时候,我们需要获取影子变量的取值,这时就涉及到了经过运算以后保存一个变量,然后在需要的时候把该变量加载读取出来的问题。
需要注意的时,由于我们需要获取变量的值,故在保存sess之前需要让sess执行一次调用变量的操作。

import tensorflow as tf

v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
saver = tf.train.Saver()

with tf.Session() as sess:
    init_op = tf.initialize_all_variables()
    sess.run(init_op)
    sess.run(v1)
    sess.run(v2)
    saver.save(sess, "D:/python/ten_test/me/model.ckpt")

读取变量

v1 = tf.Variable(tf.constant(0., shape=[1]), name="other_y")
v2 = tf.Variable(tf.constant(0., shape=[1]), name="other_x")
saver = tf.train.Saver({"v1": v1, "v2": v2})

with tf.Session() as sess:
    saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
    print(sess.run([v1, v2]))

运行结果:

《tensorflow的模型读写》

可知,从加载后的sess中获取变量类似于tf.assign的赋值操作,将加载出来的变量值赋值于一个已有变量。与该变量的对应关系通过Saver字典的对应关系得出。

保存整个图

我们知道,在进行模型的存储时只需要获得之前所需要的训练神经网络结果,所以需要把所有的神经网络训练过程和结果进行封装,调用时只使用训练结果即可,所以我么可以把数据操作等都进行封装。
如本例,我们需要知道2.0+1.0的结果是什么,所以也应该把加法操作一起封装,最后只加载运算结果即可。

import tensorflow as tf

v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()

with tf.Session() as sess:
    init_op = tf.initialize_all_variables()
    sess.run(init_op)
    sess.run(result)
    saver.save(sess, "D:/python/ten_test/me/model.ckpt")

获取图

import tensorflow as tf

saver = tf.train.import_meta_graph("D:/python/ten_test/me/model.ckpt.meta")

with tf.Session() as sess:
    saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
    print(sess.run(tf.get_default_graph().get_tensor_by_name("add:0")))

运行结果:

《tensorflow的模型读写》

保存的内容不只有变量,还有关于变量的操作,所以保存的是整个图的内容,获取的时候也应该用图来初始化saver:
在初始化saver时的参数为.ckpt.meta,是因为该文件为保存计算图的结构。
在sess中获取Tensor时的命名含义为该图中第0个add操作,如果想要自定义张量名称,可以在初始化result时为其加上名称:

result = tf.Variable(v1 + v2, name='result')

此时获取结果的相应代码就应改为:

tf.get_default_graph().get_tensor_by_name("result:0")

保存结果

上述结果保存的为整个图的内容,包括一些不需要的变量和参数,但是有时不需要一些额外的信息,我们只需要将计算的结果保存为常量然后载入文件即可。
所以我们使用convert_variables_to_constants函数,将结果保存为常量后写入二进制文件,保存的原理为将图中的一个节点保存,节点中的张量自然也会被一同保存

import tensorflow as tf
from tensorflow.python.framework import graph_util

v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2

with tf.Session() as sess:
    init_op = tf.initialize_all_variables()
    sess.run(init_op)
    graph_def = tf.get_default_graph().as_graph_def()
    output_graph_def = graph_util.convert_variables_to_constants(
        sess, graph_def, ['add']
    )

    #可以通过输出查看节点内容
    #print(output_graph_def)

    with tf.gfile.GFile("D:/python/ten_test/graphs/combined_model.pb", "wb") as f:
        f.write(output_graph_def.SerializeToString())

读取变量

import tensorflow as tf

with tf.Session() as sess:
    with tf.gfile.GFile("D:/python/ten_test/graphs/combined_model.pb", "rb") as f:
         string_in = f.read()
         graph_def = tf.GraphDef()
         graph_def.ParseFromString(string_in)
         result = tf.import_graph_def(graph_def, return_elements=["add:0"])
         print(sess.run(result))

运行结果

《tensorflow的模型读写》

    原文作者:碧影江白
    原文地址: https://www.jianshu.com/p/f7522d934e5d
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞