tf.layers.dropout
生活随笔
收集整理的這篇文章主要介紹了
tf.layers.dropout
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
dropout 是指在深度學習網(wǎng)絡(luò)的訓練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時從網(wǎng)絡(luò)中丟棄,
????????????可以用來防止過擬合,layers 模塊中提供了 tf.layers.dropout() 方法來實現(xiàn)這一操作,定義在 tensorflow/python/layers/core.py。下面我們來說明一下它的用法。
dropout( inputs, rate=0.5, noise_shape=None, seed=None, training=False, name=None)?
?
- inputs:必須,即輸入數(shù)據(jù)。
- rate:可選,默認為 0.5,即 dropout rate,如設(shè)置為 0.1,則意味著會丟棄 10% 的神經(jīng)元。
- noise_shape:可選,默認為 None,int32 類型的一維 Tensor,它代表了 dropout mask 的 shape,dropout mask 會與 inputs 相乘對 inputs 做轉(zhuǎn)換,例如 inputs 的 shape 為 (batch_size, timesteps, features),但我們想要 droput mask 在所有 timesteps 都是相同的,我們可以設(shè)置 noise_shape=[batch_size, 1, features]。
- seed:可選,默認為 None,即產(chǎn)生隨機熟的種子值。
- training:可選,默認為 False,布爾類型,即代表了是否標志位 training 模式。
- name:可選,默認為 None,dropout 層的名稱。
返回: 經(jīng)過 dropout 層之后的 Tensor。
?
總結(jié)
以上是生活随笔為你收集整理的tf.layers.dropout的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: tf.layers.flatten
- 下一篇: pooling池化