Notice
Recent Posts
Recent Comments
Link
«   2025/07   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
Tags more
Archives
관리 메뉴

프랙티스만이 살길. 프랙티스만이 살길.

2. AUTOGRAD 본문

pytorch

2. AUTOGRAD

gaussian-goodman

PyTorch의 autograd는 자동 미분(automatic differentiation)을 수행하기 위한 기능을 제공하는 모듈입니다. autograd는 PyTorch의 핵심 기능 중 하나로, 신경망 모델의 역전파(backpropagation) 단계에서 그래디언트(gradient)를 자동으로 계산하여 모델의 매개변수를 업데이트하는 데 사용됩니다.


requires_grad = True를 통해 자동미분을 활성화합니다. 이제 이 텐서의 모든 연산을 자동으로 추적합니다.

합연산을 진행한 후 grad_fn를 통해 연산의 종류를 확인할 수 있습니다.

곱연산과 mean함수를 지나고 grad_fn을 확인해보겠습니다.

backward()를 수행하면 역전파를 계산합니다. grad를 통해 gradient를 확인 할 수 있습니다.

-`with torch.no_grad()`를 사용하여 gradient의 업데이트를 하지않을 수 있습니다.

'pytorch' 카테고리의 다른 글

4. Torchvision, torchvision.transforms  (0) 2023.05.27
3. nn & nn.funtional  (0) 2023.05.27
2 - 1. grad can be implicitly created only for scalar outputs 오류 해결  (0) 2023.05.27
1. Tensor  (0) 2023.05.25