2.0 自动梯度 - PyTorch学习笔记
生活随笔
收集整理的這篇文章主要介紹了
2.0 自动梯度 - PyTorch学习笔记
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
自動梯度 (AUTOGRAD: AUTOMATIC DIFFERENTIATION)
輸出:
tensor([[1., 1.],[1., 1.]], requires_grad=True)輸出:
tensor([[3., 3.],[3., 3.]], grad_fn=<AddBackward0>)輸出:
<AddBackward0 object at 0x7f1d35f45ef0>輸出:
tensor([[27., 27.],[27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward0>)輸出:
False True <SumBackward0 object at 0x7f1d35f5bb38>輸出:
tensor([[4.5000, 4.5000],[4.5000, 4.5000]])輸出:
tensor([1001.7316, 475.3566, -226.5395], grad_fn=<MulBackward0>)輸出:
tensor([1.0240e+02, 1.0240e+03, 1.0240e-01])輸出:
True True False輸出:
True False tensor(True)Ref
https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html
總結
以上是生活随笔為你收集整理的2.0 自动梯度 - PyTorch学习笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 1.0 深度学习回顾与PyTorch简介
- 下一篇: 3.0 神经网络 - PyTorch学习