pytorch 常用层(四)
生活随笔
收集整理的這篇文章主要介紹了
pytorch 常用层(四)
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
神經(jīng)網(wǎng)絡(luò)工具箱nn
torch.nn的核心數(shù)據(jù)結(jié)構(gòu)是Module,既可以表示神經(jīng)網(wǎng)絡(luò)中的某個層(layer),也可以表示一個包含很多層的神經(jīng)網(wǎng)絡(luò)。
import torch as t from torch import nnnn.layer
PyTorch實現(xiàn)了神經(jīng)網(wǎng)絡(luò)中絕大多數(shù)的layer,這些layer都繼承于nn.Module
主要關(guān)注以下幾點
- 函數(shù)的參數(shù),如nn.Linear(in_features, out_features, bias),需關(guān)注這三個參數(shù)的作用。
- 屬性、可學習參數(shù)和子module。如nn.Linear中有weight和bias兩個可學習參數(shù),不包含子module。
- 輸入輸出的形狀,如nn.linear的輸入形狀是(N, input_features),輸出為(N,output_features),N是batch_size。
輸入的不是單個數(shù)據(jù),而是一個batch。輸入只有一個數(shù)據(jù),則必須調(diào)用tensor.unsqueeze(0) 或 tensor[None]將數(shù)據(jù)
總結(jié)
以上是生活随笔為你收集整理的pytorch 常用层(四)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 安装face_recognition
- 下一篇: 联想笔记本怎么进入bios设置 联想笔记