pytorch 训练过程学习率设置衰减
生活随笔
收集整理的這篇文章主要介紹了
pytorch 训练过程学习率设置衰减
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
設置學習率衰減
if (self.e+1) > (self.num_epochs - self.num_epochs_decay):g_lr -= (self.g_lr / float(self.num_epochs_decay))d_lr -= (self.d_lr / float(self.num_epochs_decay))self.update_lr(g_lr, d_lr)print('Decay learning rate to g_lr: {}, d_lr:{}.'.format(g_lr, d_lr))def update_lr(self, g_lr, d_lr):for param_group in self.g_optimizer.param_groups:param_group['lr'] = g_lrfor param_group in self.d_A_optimizer.param_groups:param_group['lr'] = d_lrfor param_group in self.d_B_optimizer.param_groups:param_group['lr'] = d_lr總結(jié)
以上是生活随笔為你收集整理的pytorch 训练过程学习率设置衰减的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 生成一个GitHub的token用于gi
- 下一篇: vscode连接远程服务器 SSH