일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- shrinkmatch paper
- 컴퓨터구조
- 딥러닝손실함수
- adamatch paper
- WGAN
- CoMatch
- shrinkmatch
- simclrv2
- mocov3
- conjugate pseudo label paper
- CycleGAN
- remixmatch paper
- Pix2Pix
- 백준 알고리즘
- CGAN
- Entropy Minimization
- ConMatch
- mme paper
- dcgan
- SSL
- cifar100-c
- Pseudo Label
- GAN
- semi supervised learnin 가정
- 최린컴퓨터구조
- BYOL
- UnderstandingDeepLearning
- tent paper
- dann paper
- Meta Pseudo Labels
Archives
- Today
- Total
Hello Computer Vision
argmax의 keepdim = True, False 본문
코드를 공부하는데 argmax의 keepdim = True라는 것을 보았다.
이전부터 보았던 건데 왜 공부안했는지 싶어서 남겨두려고 한다.
일단 직관적으로 유지할 수 있다는 것을 알 수 있다.
arr = torch.rand(2, 3, 4)
pred = arr.argmax(2, keepdim = False)
print(pred)
print(pred.shape)
tensor([[0, 2, 1],
[0, 2, 1]])
torch.Size([2, 3])
크기가 (2, 3, 4)인 텐서에 argmax를 취해주면 가장 높은 값을 기준으로 주어진 인자에 따라 차원 한개가 사라지는 것을 볼 수 있다.
arr = torch.rand(2, 3, 4)
pred = arr.argmax(2, keepdim = True)
print(pred)
print(pred.shape)
tensor([[[1],
[3],
[0]],
[[3],
[3],
[1]]])
torch.Size([2, 3, 1])
그러나 만약 keepdim = True로 설정한다면 차원이 사라지지 않고 그대로 유지되는 것을 볼 수 있다.
'딥러닝 > 파이토치' 카테고리의 다른 글
F.cross entropy 구현 및 설명해보기 (0) | 2023.05.12 |
---|---|
lr_scheduler CosineAnnealingLR 알아보기 (0) | 2023.05.04 |
코사인 유사도(Cosine Similarity) 알아보기 (0) | 2023.03.29 |
[pytorch] transpose, view 의 차이 알아보기 (0) | 2023.03.16 |
GELU에 대해 이해해보기 (0) | 2023.02.16 |