【tensorflow】tf.layers.conv1d函数解析(一维卷积)
TensorFlow函數:tf.layers.Conv1D_w3cschool https://www.w3cschool.cn/tensorflow_python/tensorflow_python-283f2t0b.html
功能
 1D卷積層(例如,時間卷積).
 一維卷積一般用于處理文本數據,常用語自然語言處理中
 定義:
參數:
- filters:整數,輸出空間的維數(即卷積中的濾波器數).
 - kernel_size:單個整數的整數或元組/列表,指定1D卷積窗口的長度.
 - strides:單個整數的整數或元組/列表,指定卷積的步幅.指定任何步幅(stride)值!=1與指定任何dilation_rate值都不相容!= 1.
 - padding:一個"valid"或"same"(不區分大小寫).
 - data_format:一個字符串,可以是channels_last(默認)或channels_first;輸入中維度的順序;channels_last對應于具有形狀(batch, length, channels)的輸入,而channels_first對應于具有形狀(batch, channels,length)的輸入.
 - dilation_rate:單個整數的整數或元組/列表,指定用于擴張卷積的擴張率.目前,指定任何dilation_rate值!=1與指定任何strides值!= 1 不兼容.
 - activation:激活功能,將其設置為“None”以保持線性激活.
 - use_bias:Boolean,該層是否使用偏差.
 - kernel_initializer:卷積內核的初始化程序.
 - bias_initializer:偏置向量的初始化器,如果為None,將使用默認初始值設定項.
 - kernel_regularizer:卷積內核的可選正則化器.
 - bias_regularizer:偏置矢量的可選正則化器.
 - activity_regularizer:輸出的可選正則化函數.
 - kernel_constraint:由Optimizer更新后應用于內核的可選投影函數(例如,用于實現層權重的范數約束或值約束);該函數必須將未投影的變量作為輸入,并且必須返回投影變量(必須具有相同的形狀);在進行異步分布式培訓時,使用約束是不安全的.
 - bias_constraint:由Optimizer更新后應用于偏差的可選投影函數.
 - trainable:Boolean,如果為True,還將變量添加到圖集合
 - GraphKeys.TRAINABLE_VARIABLES中(請參閱參考資料tf.Variable).
 - name:字符串,圖層的名稱.
 
————————————————
 版權聲明:下面例子為CSDN博主「生活不只*眼前的茍且」的原創文章,轉載請附上原文出處鏈接及本聲明。
 原文鏈接:https://blog.csdn.net/u011734144/article/details/84066928
比較重要的幾個參數是inputs, filters, kernel_size,下面分別說明:
- None : 一般是填充樣本的個數,batch_size
 - a : 句子中的詞數或者字數
 - b : 字或者詞的向量維度
 
filters : 過濾器的個數
kernel_size : 卷積核的大小,卷積核其實應該是一個二維的,這里只需要指定一維,是因為卷積核的第二維與輸入的詞向量維度是一致的,因為對于句子而言,卷積的移動方向只能是沿著詞的方向,即只能在列維度移動
一個例子:
inputs = tf.placeholder(‘float’, shape=[None, 6, 8])
 out = tf.layers.conv1d(inputs, 5, 3)
說明: 對于一個樣本而言,句子長度為6個字,字向量的維度為8
filters=5, kernel_size=3, 所以卷積核的維度為3* 8
那么輸入6 * 8經過3* 8的卷積核卷積后得到的是4*1的一個向量,其中(4=6-3+1)
又因為有5個過濾器,所以是得到5個4* 1的向量
 畫圖如下:
 
總結
以上是生活随笔為你收集整理的【tensorflow】tf.layers.conv1d函数解析(一维卷积)的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 【tensorflow】全连接层函数tf
 - 下一篇: 银行bp什么意思