TensorFlow 有几个操作用来创建不同分布的随机张量。注意随机操作是有状态的,并在每次评估时创建新的随机值。
下面是一些相关的函数的介绍:
- tf.random_normal
从正态分布中输出随机值。
random_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None )
args:
shape:一维整数或 Python 数组表示输出张量的形状。
mean:dtype 类型的0-D张量或 Python 值表示正态分布的均值。
stddev:dtype 类型的0-D张量或 Python 值表示正态分布的标准差。
dtype:输出的类型。
seed:一个 Python 整数。用于为分发创建一个随机种子。
name:操作的名称(可选)。
返回:将返回一个指定形状的张量,通过符合要求的随机值填充。
- tf.truncated_normal
生成的值遵循具有指定平均值和标准差的正态分布,和tf.random_normal不同之处在于其平均值大于 2 个标准差的值将被丢弃并重新选择。
tf.truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None )
args:
shape:一维整数或 Python 数组表示输出张量的形状。
mean:dtype 类型的 0-D 张量或 Python 值表示截断正态分布的均值。
stddev:dtype 类型的 0-D 张量或 Python 值表示截断前正态分布的标准偏差。
dtype:输出的类型。
seed:一个 Python 整数。用于为分发创建随机种子。
name:操作的名称(可选)。
返回:
函数返回指定形状的张量,通过随机截断的符合要求的值填充。
- tf.random_uniform
从均匀分布中输出随机值。
random_uniform( shape, minval=0, maxval=None, dtype=tf.float32, seed=None, name=None )
生成的值在该 [minval, maxval) 范围内遵循均匀分布。下限 minval 包含在范围内,而上限 maxval 被排除在外。
args:
shape:一维整数或 Python 数组表示输出张量的形状。
minval:dtype 类型的 0-D 张量或 Python 值;生成的随机值范围的下限;默认为0。
maxval:dtype 类型的 0-D 张量或 Python 值。要生成的随机值范围的上限。如果 dtype 是浮点,则默认为1 。
dtype:输出的类型:float16、float32、float64、int32、orint64。
seed:一个 Python 整数。用于为分布创建一个随机种子。
name:操作的名称(可选)。
返回:
用于填充随机均匀值的指定形状的张量。
- tf.random_shuffle
随机地将张量沿其第一维度打乱。
random_shuffle( value, seed=None, name=None )
张量沿着维度0被重新打乱,使得每个 value[i][j] 被映射到唯一一个 output[m][j]。例如,一个 3×2 张量可能出现的映射是:
[[1, 2], [[5, 6], [3, 4], ==> [1, 2], [5, 6]] [3, 4]]
args:
value:将被打乱的张量。
seed:一个 Python 整数。用于为分布创建一个随机种子。
name:操作的名称(可选)。
返回:
与 value 具有相同的形状和类型的张量,沿着它的第一个维度打乱。
- tf.random_crop
随机地将张量裁剪为给定的大小。
random_crop( value, size, seed=None, name=None )
以一致选择的偏移量将一个形状 size 部分从 value 中切出。需要的条件:value.shape >= size。
如果大小不能裁剪,请传递该维度的完整大小。例如,可以使用 size = [crop_height, crop_width, 3] 裁剪 RGB 图像。
cifar10中就有利用该函数随机裁剪24*24大小的彩色图片的例子,代码如下:
distorted_image = tf.random_crop(reshaped_image, [height, width, 3])
args:
- value:向裁剪输入张量。
- size:一维张量,大小等级为 value。
- seed:Python 整数。用于创建一个随机的种子。
- name:此操作的名称(可选)。
返回:
与 value 具有相同的秩并且与 size 具有相同形状的裁剪张量。
- tf.multinomial
从多项式分布中抽取样本。
multinomial( logits, num_samples, seed=None, name=None )
args:
- logits:形状为 [batch_size, num_classes] 的二维张量;每个切片:[i, :] 表示所有类的非标准化对数概率。
- num_samples:0维张量。为每行切片绘制的独立样本数。
- seed:Python整数。用于为分发创建一个随机种子。
- name:操作的名称(可选)。
返回:
返回绘制样品的形状 [batch_size, num_samples]。
- tf.random_gamma
从每个给定的伽玛分布中绘制 shape 样本。一般对这个函数不是很理解,详细查看伽玛分布原理。此处仅作介绍。
random_gamma( shape, alpha, beta=None, dtype=tf.float32, seed=None, name=None )
alpha 是形状参数,beta 是尺度参数。
args:
shape:一维整数张量或 Python 数组。输出样本的形状是按照 alpha/beta-parameterized 分布绘制的。
alpha:一个张量或者 Python 值或者 dtype 类型的 N-D 数组。
beta:一个张量或者 Python 值或者 dtype 类型的 N-D 数组,默认为1。
dtype:alpha、beta 的类型,输出:float16,float32 或 float64。
seed:一个 Python 整数。用于为分布创建一个随机种子。
name:操作的名称(可选)。
返回:
samples:具有 dtype 类型值的带有形状 tf.concat(shape, tf.shape(alpha + beta)) 的 Tensor。
- tf.set_random_seed
设置图形级随机seed。作用在于可以在不同的图中重复那些随机变量的值。
set_random_seed(seed)
可以从两个seed中获得依赖随机seed的操作:图形级seed和操作级seed。seed必须是整数,对大小没有要求,只是作为图形级和操作级标记使用,本节将介绍如何设置图形级别的seed。
它与操作级别seed的关系如下:
- 如果既没有设置图层级也没有设置操作级别的seed:则使用随机seed进行该操作。
- 如果设置了图形级seed,但操作seed没有设置:系统确定性地选择与图形级seed结合的操作seed,以便获得唯一的随机序列。
- 如果未设置图形级seed,但设置了操作seed:使用默认的图层seed和指定的操作seed来确定随机序列。
- 如果图层级seed和操作seed都被设置:则两个seed将一起用于确定随机序列。
具体来说,使用seed,牢记以下三点:
- 要在会话中不同图中生成不同的序列,请不要设置图层级别seed或操作级别seed;
- 要为会话中的操作在不同图中生成相同的可重复序列,请为该操作设置seed;
- 要使所有操作生成的随机序列在会话中的不同图中都可重复,请设置图形级别seed;
#-*-coding:utf-8-*- #不同情况请注释或取消注释相关语句 import tensorflow as tf #第一种情形:无seed a = tf.random_uniform([1]) #第二种情形:操作级seed #a = tf.random_uniform([1], seed=-8) #第三种情形:图层级seed #tf.set_random_seed(1234) #a = tf.random_uniform([1]) b = tf.random_normal([1]) tf.global_variables_initializer() print("Session 1") with tf.Session() as sess1: print(sess1.run(a)) # a1 print(sess1.run(a)) # a2 print(sess1.run(b)) # b1 print(sess1.run(b)) # b2 print("Session 2") with tf.Session() as sess2: print(sess2.run(a)) # a3(第一种情形a1!=a3;第二种情形a1==a3;第三种情形a1==a3) print(sess2.run(a)) # a4(同上) print(sess2.run(b)) # b3(第一种情形b1!=b3;第二种情形b1!=b3;第三种情形b1==b3) print(sess2.run(b)) # b4(同上)
上述函数都含有seed参数,属于操作级seed。
示例:
#-*-coding:utf-8-*- #随机问题每次运行的结果都不大一样 import tensorflow as tf x= tf.multinomial(tf.log([[10., 10.]]), 5) y=tf.random_normal([2,3],mean=1,stddev=3) z=tf.truncated_normal([2,3],mean=1,stddev=3) w=tf.random_uniform([1,3],9,16) v=tf.random_shuffle([[1,2,3],[4,5,6]]) u=tf.random_crop([[2,4,6],[9,8,0]],[2,2]) a = tf.constant([[1., 2., 3., 4., 1.], [3., 2., 3., 4., 3.]], name='a') b = tf.multinomial(a, 1, name='b') sess = tf.Session() sess.run(tf.global_variables_initializer()) print (sess.run(x)) print (sess.run(y)) print (sess.run(z)) print (sess.run(w)) print (sess.run(v)) print (sess.run(u)) print (sess.run(a)) print (sess.run(b))
不得不提的是,严谨点,上述代码虽然简单,但都没有在最后sess.close,关闭图并且释放其占用的内存,又或者用with语句块,读者不妨加上。