神剑山庄资源网 Design By www.hcban.com
本文实例为大家分享了tensorflow神经网络实现mnist分类的具体代码,供大家参考,具体内容如下
只有两层的神经网络,直接上代码
#引入包 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #引入input_data文件 from tensorflow.examples.tutorials.mnist import input_data #读取文件 mnist = input_data.read_data_sets('F:/mnist/data/',one_hot=True) #定义第一个隐藏层和第二个隐藏层,输入层输出层 n_hidden_1 = 256 n_hidden_2 = 128 n_input = 784 n_classes = 10 #由于不知道输入图片个数,所以用placeholder x = tf.placeholder("float",[None,n_input]) y = tf.placeholder("float",[None,n_classes]) stddev = 0.1 #定义权重 weights = { 'w1':tf.Variable(tf.random_normal([n_input,n_hidden_1],stddev = stddev)), 'w2':tf.Variable(tf.random_normal([n_hidden_1,n_hidden_2],stddev=stddev)), 'out':tf.Variable(tf.random_normal([n_hidden_2,n_classes],stddev=stddev)) } #定义偏置 biases = { 'b1':tf.Variable(tf.random_normal([n_hidden_1])), 'b2':tf.Variable(tf.random_normal([n_hidden_2])), 'out':tf.Variable(tf.random_normal([n_classes])), } print("Network is Ready") #前向传播 def multilayer_perceptrin(_X,_weights,_biases): layer1 = tf.nn.sigmoid(tf.add(tf.matmul(_X,_weights['w1']),_biases['b1'])) layer2 = tf.nn.sigmoid(tf.add(tf.matmul(layer1,_weights['w2']),_biases['b2'])) return (tf.matmul(layer2,_weights['out'])+_biases['out']) #定义优化函数,精准度等 pred = multilayer_perceptrin(x,weights,biases) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = pred,labels=y)) optm = tf.train.GradientDescentOptimizer(learning_rate = 0.001).minimize(cost) corr = tf.equal(tf.argmax(pred,1),tf.argmax(y,1)) accr = tf.reduce_mean(tf.cast(corr,"float")) print("Functions is ready") #定义超参数 training_epochs = 80 batch_size = 200 display_step = 4 #会话开始 init = tf.global_variables_initializer() sess = tf.Session() sess.run(init) #优化 for epoch in range(training_epochs): avg_cost=0. total_batch = int(mnist.train.num_examples/batch_size) for i in range(total_batch): batch_xs,batch_ys = mnist.train.next_batch(batch_size) feeds = {x:batch_xs,y:batch_ys} sess.run(optm,feed_dict = feeds) avg_cost += sess.run(cost,feed_dict=feeds) avg_cost = avg_cost/total_batch if (epoch+1) % display_step ==0: print("Epoch:%03d/%03d cost:%.9f"%(epoch,training_epochs,avg_cost)) feeds = {x:batch_xs,y:batch_ys} train_acc = sess.run(accr,feed_dict = feeds) print("Train accuracy:%.3f"%(train_acc)) feeds = {x:mnist.test.images,y:mnist.test.labels} test_acc = sess.run(accr,feed_dict = feeds) print("Test accuracy:%.3f"%(test_acc)) print("Optimization Finished")
程序部分运行结果如下:
Train accuracy:0.605 Test accuracy:0.633 Epoch:071/080 cost:1.810029302 Train accuracy:0.600 Test accuracy:0.645 Epoch:075/080 cost:1.761531130 Train accuracy:0.690 Test accuracy:0.649 Epoch:079/080 cost:1.711757494 Train accuracy:0.640 Test accuracy:0.660 Optimization Finished
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
神剑山庄资源网 Design By www.hcban.com
神剑山庄资源网
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
神剑山庄资源网 Design By www.hcban.com
暂无tensorflow使用神经网络实现mnist分类的评论...
更新日志
2024年10月02日
2024年10月02日
- 孙悦.1996-伙伴【正大国际】【WAV+CUE】
- 纪钧瀚《钢琴阅读时光 雨中书店聆听轻音乐》[FLAC/分轨][399.62MB]
- 证声音乐图书馆《走向自然 疗心爵士乐》[320K/MP3][87.4MB]
- 证声音乐图书馆《走向自然 疗心爵士乐》[FLAC/分轨][184.94MB]
- 陈慧娴.2018-Priscilla-Ism演唱会3CD(2024环球红馆40复刻系列)【环球】【WAV+CUE】
- 郑秀文.1999-我应该得到(国)【华纳】【WAV+CUE】
- 陈家慧.2011-钢琴酒吧2CD【龙吟唱片】【WAV+CUE】
- 证声音乐图书馆《雨季 蓝调吉他 Rainy Blues》[320K/MP3][45.01MB]
- 证声音乐图书馆《雨季 蓝调吉他 Rainy Blues》[FLAC/分轨][109.13MB]
- 赞多《序章》[320K/MP3][45.54MB]
- 许巍.2004-每一刻都是崭新的【步升大风】【WAV+CUE】
- 群星.2024-四方馆影视原声带【韶愔音乐】【FLAC分轨】
- 陈雷.1997-安锁咧【金圆唱片】【WAV+CUE】
- 关淑怡.2013-MY.FAVORITE.SK.3CD【环球】【WAV+CUE】
- Sweety.2006-花言乔语【丰华】【WAV+CUE】