ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

tensorflow mnist

2020-05-27 22:52:26  阅读:262  来源: 互联网

标签:layers 28 test tf tensorflow model mnist accuracy


 

https://files.cn


#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
Created on Thu Apr 16 22:01:22 2020

@author: Administrator  win7 64 tensorflow 2.1 python 3.6
"""


import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
from tensorflow import keras

# Helper libraries
import numpy as np
import matplotlib.pyplot as plt


#download mnist datasets
#55000 * 28 * 28 55000image
from tensorflow.examples.tutorials.mnist import input_data

mnist=input_data.read_data_sets('D:/python_stu/mnist_data',one_hot=True)#参数一:文件目录。参数二:是否为one_hot向量

#one_hot is encoding format
#None means tensor 的第一维度可以是任意维度
#/255. 做均一化
input_x=tf.placeholder(tf.float32,[None,28*28])/255.
#输出是一个one hot的向量
output_y=tf.placeholder(tf.int32,[None,10])

#输入层 [28*28*1]
input_x_images=tf.reshape(input_x,[-1,28,28,1])
#从(Test)数据集中选取3000个手写数字的图片和对应标签

test_x=mnist.test.images[:3000] #image
test_y=mnist.test.labels[:3000] #label

model_path = 'D:/python_stu/model/model/num.ckpt'

#隐藏层
#conv1 5*5*32
#layers.conv2d parameters
#inputs 输入,是一个张量
#filters 卷积核个数,也就是卷积层的厚度
#kernel_size 卷积核的尺寸
#strides: 扫描步长
#padding: 边边补0 valid不需要补0,same需要补0,为了保证输入输出的尺寸一致,补多少不需要知道
#activation: 激活函数
conv1=tf.layers.conv2d(
inputs=input_x_images,
filters=32,
kernel_size=[5,5],
strides=1,
padding='same',
activation=tf.nn.relu
)
print(conv1)

#输出变成了 [28*28*32]

#pooling layer1 2*2
#tf.layers.max_pooling2d
#inputs 输入,张量必须要有四个维度
#pool_size: 过滤器的尺寸

pool1=tf.layers.max_pooling2d(
inputs=conv1,
pool_size=[2,2],
strides=2
)
print(pool1)
#输出变成了[?,14,14,32]

#conv2 5*5*64
conv2=tf.layers.conv2d(
inputs=pool1,
filters=64,
kernel_size=[5,5],
strides=1,
padding='same',
activation=tf.nn.relu
)

#输出变成了 [?,14,14,64]

#pool2 2*2
pool2=tf.layers.max_pooling2d(
inputs=conv2,
pool_size=[2,2],
strides=2
)

#输出变成了[?,7,7,64]

#flat(平坦化)
flat=tf.reshape(pool2,[-1,7*7*64])


#形状变成了[?,3136]

#densely-connected layers 全连接层 1024
#tf.layers.dense
#inputs: 张量
#units: 神经元的个数
#activation: 激活函数
dense=tf.layers.dense(
inputs=flat,
units=1024,
activation=tf.nn.relu
)

#输出变成了[?,1024]
print(dense)

#dropout
#tf.layers.dropout
#inputs 张量
#rate 丢弃率
#training 是否是在训练的时候丢弃
dropout=tf.layers.dropout(
inputs=dense,
rate=0.5,
)
print(dropout)

#输出层,不用激活函数(本质就是一个全连接层)
logits=tf.layers.dense(
inputs=dropout,
units=10
)
#输出形状[?,10]
print(logits)

#计算误差 cross entropy(交叉熵),再用Softmax计算百分比的概率
#tf.losses.softmax_cross_entropy
#onehot_labels: 标签值
#logits: 神经网络的输出值
loss=tf.losses.softmax_cross_entropy(onehot_labels=output_y,
logits=logits)
# 用Adam 优化器来最小化误差,学习率0.001 类似梯度下降
print(loss)
train_op=tf.train.GradientDescentOptimizer(learning_rate=0.001).minimize(loss)


#精度。计算预测值和实际标签的匹配程度
#tf.metrics.accuracy
#labels:真实标签
#predictions: 预测值
#Return: (accuracy,update_op)accuracy 是一个张量准确率,update_op 是一个op可以求出精度。
#这两个都是局部变量
accuracy_op=tf.metrics.accuracy(
labels=tf.argmax(output_y,axis=1),
predictions=tf.argmax(logits,axis=1)
)[1] #为什么是1 是因为,我们这里不是要准确率这个数字。而是要得到一个op

#创建会话
saver=tf.train.Saver()

sess=tf.Session()
#初始化变量
#group 把很多个操作弄成一个组
#初始化变量,全局,和局部
init=tf.group(tf.global_variables_initializer(),
tf.local_variables_initializer())
sess.run(init)

for i in range(10000):
batch=mnist.train.next_batch(50) #从Train(训练)数据集中取‘下一个’样本
train_loss,train_op_=sess.run([loss,train_op],{input_x:batch[0],output_y:batch[1]})
if i%100==0:
test_accuracy=sess.run(accuracy_op,{input_x:test_x,output_y:test_y})
print("Step=%d, Train loss=%.4f,[Test accuracy=%.2f]"%(i,train_loss,test_accuracy))
saver.save(sess,model_path)

#测试: 打印20个预测值和真实值 对
test_output=sess.run(logits,{input_x:test_x[:20]})
inferenced_y=np.argmax(test_output,1)
print(inferenced_y,'Inferenced numbers')#推测的数字
print(np.argmax(test_y[:20],1),'Real numbers')

saver.save(sess,model_path)
sess.close()

# with tf.Session() as sess:
# ckpt = tf.train.get_checkpoint_state(D:/python_stu/model)
# if ckpt and ckpt.model_checkpoint_path:
# saver.restore(sess, model_path) # 将保存的神经网络模型加载到当前会话中

 

#new_model = keras.models.load_model(model_path)
#new_model.compile(optimizer=tf.train.AdamOptimizer(),
# loss='sparse_categorical_crossentropy',
# metrics=['accuracy'])
#new_model.summary()
#
##Evaluate
#
## test_loss, test_acc = new_model.evaluate(test_images, test_labels)
## print('Test accuracy:', test_acc)
#
##Predicte
#
#mypath = 'C:\\Users\Administrator\\mnist_data\\example'
#
#def getimg(mypath):
# listdir = os.listdir(mypath)
# imgs = []
# for p in listdir:
# img = plt.imread(mypath+'\\'+p)
# # I save the picture that I draw myself under Windows, but the saved picture's
# # encode style is just opposite with the experiment data, so I transfer it with
# # this line.
# img = np.abs(img/255-1)
# imgs.append(img[:,:,0])
# return np.array(imgs),len(imgs)
#
#imgs = getimg(mypath)
#
#test_images = np.reshape(imgs[0],[-1,28,28,1])
#
#predictions = new_model.predict(test_images)
#
#plt.figure()
#
#for i in range(imgs[1]):
# c = np.argmax(predictions[i])
# plt.subplot(3,3,i+1)
# plt.xticks([])
# plt.yticks([])
# plt.imshow(test_images[i,:,:,0])
# plt.title(class_names[c])
#plt.show()

blogs.com/files/tuozizhang/tutorials.rar

标签:layers,28,test,tf,tensorflow,model,mnist,accuracy
来源: https://www.cnblogs.com/tuozizhang/p/12977223.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有