tensorflow小程序测试

tensorflow小程序测试

=======================================

 

环境:http://www.cnblogs.com/TS-qrt/articles/py_tf.html

======================================

win7-64bit

python 3.5

tensorflow 0.12

======================================

栗子:http://blog.csdn.net/DilemmaVF/article/details/66476862

 

一. 概率学中的逆概率

1.什么是逆概率

a. 我们肯定知道正概率,举个例子就是,箱子里有5个黑球5个白球,那你随机拿到黑球和白球的概率都是50%,那现在我不知道箱子里有多少个黑球白球,那我通过不断的拿球应该如何确定箱子里有多少个黑球白球呢,这就是出名的逆概率
b. 其实机器学习很多时候也就是逆概率的问题,我有大量现实例子的情况下,让机器从这些例子中找到共同的特征,例如给一万张猫的图片给机器学习,然后找到共同的特征(两只耳朵,四只脚,有胡须,有毛,有尾巴等特征)

2. 根据逆概率的概念我们再举个其他场景

a. y=Ax+B(A、B是常量),这是一条非常简单的数学方程式,有小学基础的人应该都知道。
b. 我现在有很多的x和y值,所以问题就是如何通过这些x和y值来得到A和B的值?

 

二. 实践

1. 代码  test.py

#导入依赖库
import numpy as np #这是Python的一种开源的数值计算扩展,非常强大
import tensorflow as tf  #导入tensorflow 

##构造数据##
x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值
y_data=x_data*0.1+0.3  #定义方程式y=x_data*A+B
##-------##

##建立TensorFlow神经计算结构##
weight=tf.Variable(tf.random_uniform([1],-1.0,1.0)) 
biases=tf.Variable(tf.zeros([1]))     
y=weight*x_data+biases
##-------##

loss=tf.reduce_mean(tf.square(y-y_data))  #判断与正确值的差距
optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正参数
train=optimizer.minimize(loss) #建立训练器

init=tf.initialize_all_variables() #初始化TensorFlow训练结构
sess=tf.Session()  #建立TensorFlow训练会话
sess.run(init)     #将训练结构装载到会话中

for  step in range(400): #循环训练400次
     sess.run(train)  #使用训练器根据训练结构进行训练
     if  step%20==0:  #每20次打印一次训练结果
        print(step,sess.run(weight),sess.run(biases)) #训练次数,A值,B值

2. 运行& 结果

E:\tensorflow>python test.py
WARNING:tensorflow:From test.py:21 in <module>.: initialize_all_variables (from tensorflow.python.ops.variables) is deprecated and will be removed after 2017-03-02.
Instructions for updating:
Use `tf.global_variables_initializer` instead.
0 [ 0.28138897] [ 0.27814955]
20 [ 0.13604677] [ 0.28018293]
40 [ 0.10874908] [ 0.2951901]
60 [ 0.10212354] [ 0.29883257]
80 [ 0.10051542] [ 0.29971665]
100 [ 0.10012511] [ 0.29993123]
120 [ 0.10003036] [ 0.29998332]
140 [ 0.10000736] [ 0.29999596]
160 [ 0.10000179] [ 0.29999903]
180 [ 0.10000044] [ 0.29999977]
200 [ 0.10000011] [ 0.29999995]
220 [ 0.1000001] [ 0.29999995]
240 [ 0.1000001] [ 0.29999995]
260 [ 0.1000001] [ 0.29999995]
280 [ 0.1000001] [ 0.29999995]
300 [ 0.1000001] [ 0.29999995]
320 [ 0.1000001] [ 0.29999995]
340 [ 0.1000001] [ 0.29999995]
360 [ 0.1000001] [ 0.29999995]
380 [ 0.1000001] [ 0.29999995]

E:\tensorflow>

 

    原文作者:tensorflow
    原文地址: https://www.cnblogs.com/TS-qrt/articles/tf_first.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞