利用tensorflow建立简单的神经网络所需要的几条简单语句
生活随笔
收集整理的這篇文章主要介紹了
利用tensorflow建立简单的神经网络所需要的几条简单语句
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
1.tf.placeholder(tf.float32,[None,N])#為訓(xùn)練集設(shè)置占位符,N為圖像數(shù)據(jù)的總大小或標(biāo)簽的總大小
2.tf.reshape(x,[batch,in_height,in_weight,channels])#將訓(xùn)練數(shù)據(jù)整理為卷積所需要的大小格式
3.tf.Variable(tf.truncated_normal(shape,stddev = 0.1))#截?cái)嗾龖B(tài)分布初始化模型參數(shù)
4.tf.nn.relu()#激活函數(shù)Relu
5.tf.nn.conv2d(x,Filter,strides = [1,1,1,1],padding = padding)#卷積函數(shù)
6.tf.nn.max_pool(x,ksize = [1,2,2,1],strides = [1,2,2,1],padding = padding)#最大池化函數(shù),一般不在batch和channels上進(jìn)行池化,故設(shè)置為1,ksize為池化核的大小,這里表示大小為2x2。
7.tf.reduce_mean(x,axis,keep_dims = False,name = None,reduction_indices = None)#axis = 0,垂直方向約減,axis = 1,水平方向約減。axis = [0,1]或[1,0],按順序約減。keep_dims,表示是否保留維度信息
8.tf.matmul(x,W)#實(shí)現(xiàn)兩個(gè)tensor(矩陣)的相乘
9.tf.nn.softmax_cross_entropy_with_logits(labels = y_,logits = y_out)#交叉熵?fù)p失函數(shù)
10.tf.train.AdamOptimizer(learning_rate).minimize(loss_function)#優(yōu)化函數(shù),實(shí)現(xiàn)反向傳播
11.tf.equal(a,b)#判斷a,b中,對(duì)應(yīng)位置的元素是否一致,并返回一個(gè)bool型數(shù)組
12.tf.cast(x, dtype, name=None)#強(qiáng)制類型轉(zhuǎn)換,dtype為目標(biāo)數(shù)據(jù)類型
?
總結(jié)
以上是生活随笔為你收集整理的利用tensorflow建立简单的神经网络所需要的几条简单语句的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python将文字转拼音
- 下一篇: Fast R-CNN 个人理解