프랙티스만이 살길. 프랙티스만이 살길.
2. AUTOGRAD 본문
PyTorch의 autograd는 자동 미분(automatic differentiation)을 수행하기 위한 기능을 제공하는 모듈입니다. autograd는 PyTorch의 핵심 기능 중 하나로, 신경망 모델의 역전파(backpropagation) 단계에서 그래디언트(gradient)를 자동으로 계산하여 모델의 매개변수를 업데이트하는 데 사용됩니다.
requires_grad = True를 통해 자동미분을 활성화합니다. 이제 이 텐서의 모든 연산을 자동으로 추적합니다.
합연산을 진행한 후 grad_fn를 통해 연산의 종류를 확인할 수 있습니다.
곱연산과 mean함수를 지나고 grad_fn을 확인해보겠습니다.
backward()를 수행하면 역전파를 계산합니다. grad를 통해 gradient를 확인 할 수 있습니다.
-`with torch.no_grad()`를 사용하여 gradient의 업데이트를 하지않을 수 있습니다.
'pytorch' 카테고리의 다른 글
4. Torchvision, torchvision.transforms (0) | 2023.05.27 |
---|---|
3. nn & nn.funtional (0) | 2023.05.27 |
2 - 1. grad can be implicitly created only for scalar outputs 오류 해결 (0) | 2023.05.27 |
1. Tensor (0) | 2023.05.25 |