项目简介
本文将使用 python,并借助 TensorFlow 框架搭建一个最简单的 CNN 框架,来实现对手写数字的识别。
本文搭建的 CNN 框架结构
【1】输入层(本文的输入是一个 28*28 且为单通道的图片,所以输入层有 784 个节点)
【2】第一个卷积层(该卷积层包含了 32 个不同的 5 5 的卷积核,即该卷积层提取了 32 种不同图形特征,【5,5,1,32】表示卷积核尺寸为 5 5,1 个颜色通道,32 个不同的卷积核)
【3】第一个卷积层后的最大池化层
【4】第二个卷积层(该卷积层包含了 64 个不同的 5 5 的卷积核,即该卷积层提取了 32 种不同图形特征,【5,5,32,64】表示卷积核尺寸为 5 5,64 个不同的卷积核)
【5】第二个卷积层后的最大池化层
【6】全连接层
【7】一个 Dropout 层(为了减轻过拟合,在训练时,我们随机丢弃一部分节点的数据来减轻过拟合,预测是则保留全部数据来追求最好的预测性能)
【8】Softmax 层,得到最后的概率输出。
【9】定义损失函数为交叉熵(cross entropy),优化器使用 Adam
【10】得到模型的预测精度
项目代码
导入相应的库
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
导入手写数字数据集
mnist = input_data.read_data_sets(“MNIST_data/”,one_hot = True)
sess = tf.InteractiveSession()
定义生成权重的函数
def weight_variabel(shape):
initial = tf.truncated_normal(shape,stddev = 0.1)
return tf.Variable(initial)
定义生成偏重的函数
def bias_variable(shape):
initial = tf.constant(0.1,shape = shape)
return tf.Variable(initial)
定义生成卷积层的函数
卷积层
def conv2d(x,W):
return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')
池化层
定义生成最大池化层函数
def max_pool_2x2(x):
return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],
padding='SAME')
传入输入的变量
x = tf.placeholder(tf.float32,[None,784])
传入标签的变量
y_ = tf.placeholder(tf.float32,[None,10])
将 1D 的图片转为 28*28 的 2D 照片
x_image = tf.reshape(x,[-1,28,28,1])
我们定义第一个卷积层
权重
W_conv1 = weight_variabel([5,5,1,32])
偏置
b_conv1 = bias_variable([32])
卷积核
h_conv1 = tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)
最大池化层
h_pool1 = max_pool_2x2(h_conv1)
定义第二个卷积层
权重
W_conv2 = weight_variabel([5,5,32,64])
偏置
b_conv2 = bias_variable([64])
卷积核
h_conv2 = tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)
最大池化层
h_pool2 = max_pool_2x2(h_conv2)
定义一个全连接层,隐含节点数为 1024,并使用 ReLU 激活函数
W_fc1 = weight_variabel([7764,1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7764])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)
为了减轻过拟合,下面使用一个 Dropout 层,是通过一个 placeholder 的传输 keepr_prob 比率来控制的。在训练时,
我们随机丢弃一部分节点数据来减轻过拟合,预测时我们保留全部数据来追求最好的预测性能
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)
最后我们将 Dropout 层的输出连接一个 Softmax 层,得到最后的概率输出
W_fc2 = weight_variabel([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)
我们定义损失函数 cross entropy , 和之前一样,但是优化器使用 Adam,并给予一个小的学习速率 1e-4
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv),
reduction_indices = [1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
下面开始训练过程,首先是初始化所有参数
tf.global_variables_initializer().run()
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict= {x:batch[0],y_:batch[1],
keep_prob:1.0})
print("step %d,trainning accuracy %g"%(i,train_accuracy))
train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})
print(“test accuracy %g”%accuracy.eval(feed_dict={x:mnist.test.images,y_:mnist.test.labels,keep_prob:1.0}))