lstm timestep一般是多少_请问rnn和lstm中batchsize和timestep的区别是什么?
圖說起來可能更直觀些:
Tensor是一個高維數組,每單一個樣本是一個Input_Size*Time_Step的二維矩陣,其中Input_Size 代表觀察的特征數量,比如我需要用電池的電壓電流和溫度來預測SoC,此時Input_Size為3 。 Time_Step代表窗口的寬度。 而Batch_Size借評論里@ViVi 的話說,“就是表示有batch_size個這樣的二維矩陣送入網絡中訓練“。
以及,附送一個隨機抽取batch的小方法:
筆芯
以下為原答,年輕人還是輕狂。。。
##################################################################
愚以為,在上各位答主, 說的都不對。。。
理論上沒問題, 但是實際在設置RNN的時候, 如果這么理解的話估計訓到明年也訓不出。
一般在給訓練集的時候都會用的Dataloader, 此時就已經涉及到了一次BATCH_SIZE。再以pytorch為例, 在定義torch.nn.RNN()的時候,根據問題種類不同batch 和time_seq的含義不同:圖片分類:Dataloader 里的BS表示一次給幾張圖片。RNN的batch和time_seq分別為圖片像素的長寬。 此時不需要特別區分。
語句預測:BS指一次給幾段話, 而此時time_seq代表了把一段話分成幾句,batch表示每句話里有多少個字。
時間預測:這個就非常關鍵了。 BS表示一次給多長時間的數據量, time_seq代表把這段時間再劃分為幾小段時間,而 batch 則是每小段時間里有多少數據量。 而RNN展開的時間長度其實是batch的值。
我之前做時間預測的時候,BS設為100,且希望RNN展開100步。 參照其他答主的回答, 把time_seq設為了100,然后在迷途中游蕩了半個月,train的時候誤差e-3量級,一test壓根不擬合。直到在github上看了語句預測的例子,才發現概念完全弄反了。
以上。如有指正歡迎賜教。
總結
以上是生活随笔為你收集整理的lstm timestep一般是多少_请问rnn和lstm中batchsize和timestep的区别是什么?的全部內容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 多少钱一炮啊?
- 下一篇: 亲爱的妈妈是哪首歌啊?
