项目简介
本文将使用python,并借助TensorFlow框架搭建一个最简单的CNN框架,来实现对手写数字的识别。
本文搭建的CNN框架结构
【1】输入层(本文的输入是一个28*28且为单通道的图片,所以输入层有784个节点)
【2】第一个卷积层(该卷积层包含了32个不同的55的卷积核,即该卷积层提取了32种不同图形特征,【5,5,1,32】表示卷积核尺寸为55,1个颜色通道,32个不同的卷积核)
【3】第一个卷积层后的最大池化层
【4】第二个卷积层(该卷积层包含了64个不同的55的卷积核,即该卷积层提取了32种不同图形特征,【5,5,32,64】表示卷积核尺寸为55,64个不同的卷积核)
【5】第二个卷积层后的最大池化层
【6】全连接层
【7】一个Dropout层(为了减轻过拟合,在训练时,我们随机丢弃一部分节点的数据来减轻过拟合,预测是则保留全部数据来追求最好的预测性能)
【8】Softmax层,得到最后的概率输出。
【9】定义损失函数为交叉熵(cross entropy),优化器使用Adam
【10】得到模型的预测精度
项目代码
导入相应的库
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
导入手写数字数据集
mnist = input_data.read_data_sets(“MNIST_data/”,one_hot = True)
sess = tf.InteractiveSession()
定义生成权重的函数
def weight_variabel(shape):
initial = tf.truncated_normal(shape,stddev = 0.1)
return tf.Variable(initial)
定义生成偏重的函数
def bias_variable(shape):
initial = tf.constant(0.1,shape = shape)
return tf.Variable(initial)
定义生成卷积层的函数
卷积层
def conv2d(x,W):
return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')
池化层
定义生成最大池化层函数
def max_pool_2x2(x):
return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],
padding='SAME')
传入输入的变量
x = tf.placeholder(tf.float32,[None,784])
传入标签的变量
y_ = tf.placeholder(tf.float32,[None,10])
将1D的图片转为28*28的2D照片
x_image = tf.reshape(x,[-1,28,28,1])
我们定义第一个卷积层
权重
W_conv1 = weight_variabel([5,5,1,32])
偏置
b_conv1 = bias_variable([32])
卷积核
h_conv1 = tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)
最大池化层
h_pool1 = max_pool_2x2(h_conv1)
定义第二个卷积层
权重
W_conv2 = weight_variabel([5,5,32,64])
偏置
b_conv2 = bias_variable([64])
卷积核
h_conv2 = tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)
最大池化层
h_pool2 = max_pool_2x2(h_conv2)
定义一个全连接层,隐含节点数为1024,并使用ReLU激活函数
W_fc1 = weight_variabel([7764,1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7764])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)
为了减轻过拟合,下面使用一个Dropout层,是通过一个placeholder的传输keepr_prob比率来控制的。在训练时,
我们随机丢弃一部分节点数据来减轻过拟合,预测时我们保留全部数据来追求最好的预测性能
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)
最后我们将Dropout层的输出连接一个Softmax层,得到最后的概率输出
W_fc2 = weight_variabel([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)
我们定义损失函数cross entropy ,和之前一样,但是优化器使用Adam,并给予一个小的学习速率1e-4
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv),
reduction_indices = [1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
下面开始训练过程,首先是初始化所有参数
tf.global_variables_initializer().run()
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict= {x:batch[0],y_:batch[1],
keep_prob:1.0})
print("step %d,trainning accuracy %g"%(i,train_accuracy))
train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})
print(“test accuracy %g”%accuracy.eval(feed_dict={x:mnist.test.images,y_:mnist.test.labels,keep_prob:1.0}))