일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- adamatch paper
- Pseudo Label
- CGAN
- mocov3
- cifar100-c
- tent paper
- GAN
- Pix2Pix
- dcgan
- 딥러닝손실함수
- conjugate pseudo label paper
- shrinkmatch paper
- semi supervised learnin 가정
- BYOL
- ConMatch
- WGAN
- 최린컴퓨터구조
- Meta Pseudo Labels
- remixmatch paper
- shrinkmatch
- UnderstandingDeepLearning
- 백준 알고리즘
- Entropy Minimization
- mme paper
- CycleGAN
- SSL
- simclrv2
- dann paper
- CoMatch
- 컴퓨터구조
Archives
- Today
- Total
목록wgan설명 (1)
Hello Computer Vision
비전공생의 WGAN(Wasserstein GAN, 2017) 에 대한 간단한 이해
이번에 읽으려고 했던 논문은 WGAN이었다. 그러나 너무나 많은 수식으로 인해 저 혼자서 이해하기에는 힘들다고 생각했고 많은 블로그들을 참조해 WGAN 에서 필요한 부분들에 대한 저만의 이해를 써보겠습니다. 최대한 앞으로의 모델을 공부하는데 있어 불편함 없을 정도로 알아보겠습니다. 참조 자료 영상 : 십분 딥러닝 https://www.youtube.com/watch?v=j-6uUCmY4p8 글 : 하우론님의 https://haawron.tistory.com/21 먼저 확률분포는 특정한 값을 가질 확률을 나타내는 함수를 나타냅니다. 확률밀도함수라고 한다면 구간별로 적분한 넓이가 확률이 될 것이고 확률은 1이 넘을 수 없으므로 분포의 총 면적은 1이 됩니다. 그리고 거리함수에 대한 정의를 해보겠습니다. 거리..
Generative
2022. 11. 11. 22:23