일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 딥러닝손실함수
- WGAN
- semi supervised learnin 가정
- 컴퓨터구조
- CGAN
- dcgan
- Pix2Pix
- GAN
- shrinkmatch paper
- 백준 알고리즘
- CycleGAN
- SSL
- mocov3
- CoMatch
- BYOL
- 최린컴퓨터구조
- tent paper
- Entropy Minimization
- dann paper
- cifar100-c
- adamatch paper
- mme paper
- ConMatch
- Pseudo Label
- simclrv2
- UnderstandingDeepLearning
- remixmatch paper
- conjugate pseudo label paper
- Meta Pseudo Labels
- shrinkmatch
Archives
- Today
- Total
Hello Computer Vision
torch stack, cat 차이 본문
데이터셋을 다루다보면은 cat, stack을 사용하는 코드들이 종종 있는데 이를 구분하기 위해 정리하려고 한다.
우선 코드로 먼저 확인하는게 제일 빠를 거 같다.
x = torch.rand(3, 5)
y = torch.rand(3, 5)
a = torch.cat([x, y], dim = 0)
b = torch.stack([x, y], dim = 0)
print(a.shape)
print(b.shape)
torch.Size([6, 5])
torch.Size([2, 3, 5])
결과로 보는 것처럼 torch.cat을 사용한다면 지정해준 dim에 텐서들을 붙이는 것을 확인할 수 있다.
그러나 torch.stack을 사용한다면 새로운 차원에서 텐서들을 붙이는 것을 확인할 수 있다.
'딥러닝 > 파이토치' 카테고리의 다른 글
[pytorch] load state dict 후 업데이트 (0) | 2024.01.22 |
---|---|
CIFAR10-C 데이터셋 다루기 (0) | 2024.01.20 |
함수 이용해 이미지 rotate 하기 (0) | 2024.01.17 |
torch detach 실험해보기 (0) | 2024.01.12 |
torch SummaryWriter 에 관한 자그만한 정보 (0) | 2024.01.05 |