(pytorch-深度学习系列)pytorch线性回归的便捷实现
生活随笔
收集整理的這篇文章主要介紹了
(pytorch-深度学习系列)pytorch线性回归的便捷实现
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
pytorch線性回歸的便捷實(shí)現(xiàn)
繼上一篇blog,使用更加簡(jiǎn)潔的方法實(shí)現(xiàn)線性回歸
生成數(shù)據(jù)集:
讀取數(shù)據(jù):
與上一篇blog實(shí)現(xiàn)的方式不同,這里使用DataLoader()創(chuàng)建數(shù)據(jù)集
定義模型:
class LinearNet(nn.Module):def __init__(self, n_feature):super(LinearNet, self).__init__()self.linear = nn.Linear(n_feature, 1) # 使用nn.Linear自動(dòng)創(chuàng)建線性規(guī)劃模型# forward 定義前向傳播def forward(self, x):y = self.linear(x)return ynet = LinearNet(num_inputs) print(net) # 使用print可以打印出網(wǎng)絡(luò)的結(jié)構(gòu)輸出網(wǎng)結(jié)構(gòu):
LinearNet((linear): Linear(in_features=2, out_features=1, bias=True) )還可以用nn.Sequential來(lái)更加方便地搭建網(wǎng)絡(luò),Sequential是一個(gè)有序的容器,網(wǎng)絡(luò)層將按照在傳入Sequential的順序依次被添加到計(jì)算圖中
# 寫(xiě)法一 net = nn.Sequential(nn.Linear(num_inputs, 1)# 此處還可以傳入其他層)# 寫(xiě)法二 net = nn.Sequential() net.add_module('linear', nn.Linear(num_inputs, 1)) # net.add_module(.....)# 寫(xiě)法三 from collections import OrderedDict net = nn.Sequential(OrderedDict([('linear', nn.Linear(num_inputs, 1))# ......]))print(net) print(net[0])輸出:
Sequential((linear): Linear(in_features=2, out_features=1, bias=True) ) Linear(in_features=2, out_features=1, bias=True)通過(guò)net.parameters()來(lái)查看模型所有的可學(xué)習(xí)參數(shù),此函數(shù)將返回一個(gè)生成器
for param in net.parameters():print(param)輸出:
Parameter containing: tensor([[-0.0277, 0.2771]], requires_grad=True) Parameter containing: tensor([0.3395], requires_grad=True)初始化參數(shù)
from torch.nn import initinit.normal_(net[0].weight, mean=0, std=0.01) # 初始化第一個(gè)變量 init.constant_(net[0].bias, val=0) # 也可以直接修改bias的data: net[0].bias.data.fill_(0)定義模型參數(shù):
loss = nn.MSELoss() # 損失函數(shù) import torch.optim as optim optimizer = optim.SGD(net.parameters(), lr=0.03) # 定義優(yōu)化器 print(optimizer) # 調(diào)整學(xué)習(xí)率 for param_group in optimizer.param_groups:param_group['lr'] *= 0.1 # 學(xué)習(xí)率為之前的0.1倍 SGD ( Parameter Group 0dampening: 0lr: 0.03momentum: 0nesterov: Falseweight_decay: 0 )訓(xùn)練模型:
num_epochs = 3 for epoch in range(1, num_epochs + 1):for X, y in data_iter:output = net(X)l = loss(output, y.view(-1, 1))optimizer.zero_grad() # 梯度清零,等價(jià)于net.zero_grad()l.backward()optimizer.step()print('epoch %d, loss: %f' % (epoch, l.item()))查看模型訓(xùn)練的參數(shù):
dense = net[0] print(true_w, dense.weight) print(true_b, dense.bias)總結(jié)
以上是生活随笔為你收集整理的(pytorch-深度学习系列)pytorch线性回归的便捷实现的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 一篇清华博士的美赛心得 | 参加世界最牛
- 下一篇: 日本共享自行车建立的强大地下停车系统