일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- shrinkmatch
- SSL
- WGAN
- Entropy Minimization
- 딥러닝손실함수
- Pseudo Label
- 최린컴퓨터구조
- dann paper
- CycleGAN
- cifar100-c
- 컴퓨터구조
- semi supervised learnin 가정
- shrinkmatch paper
- remixmatch paper
- UnderstandingDeepLearning
- Pix2Pix
- tent paper
- mocov3
- CoMatch
- BYOL
- dcgan
- CGAN
- ConMatch
- conjugate pseudo label paper
- simclrv2
- 백준 알고리즘
- GAN
- Meta Pseudo Labels
- mme paper
- adamatch paper
- Today
- Total
목록딥러닝손실함수 (2)
Hello Computer Vision
이번 데이터마이닝 수업에서 예측과 분류하는데 한가지 기법으로 Neural Network가 나오는데 이를 설명하시면서 손실함수 내용들이 나왔다. 분명 내가 자주 쓰는건데 낯설었다. 그래서 한번 정의하려고 한다. 1. MSE(Mean Squared Error) 가장 직관적인 손실함수 방법이다. $$ E = Loss = \frac{1}{2} (y - \hat{y})^2 $$ $y$는 정답값이고 $\hat{y}$ 는 예측값을 의미합니다. 번외로 $\bar{y}$ 는 평균값을 의미합니다. 예시 정답 : 10(y) 예측 : 5 오차 : (10-5)^2 = 25 MSE의 특징이라하면 큰 오차에 대해 더 많은 처벌을 줄 수 있다는 점입니다. MAE(Mean Absolute Error) 와는 다르게 미분이 가능해서 주로..
GAN을 공부하다가 VAE개념을 몰라서 공부하는데 계속 나온 식이 바로 KL divergence! 그래서 정리도 할겸 이해한 내용 그대로 끄적여 볼라고 한다. 들어가기 전에 사전 지식이 있어야한다. 모든 정보에는 양이 있고 그 양은 모두 같은 값을 가지지는 않는다. 예를 들어 '해가 동쪽에서 뜬다' 라는 정보는 너무 흔하기 때문에 정보의 양을 거의 가지지 않고 '해가 서쪽에서 뜬다'라는 정보는 흔하지 않기 때문에 많은 정보의 양을 가진다. 표기를 해보자면 x라는 정보가 있고 y라는 정보가 있다. 이러한 정보의 확률 값을 p(x), p(y)라고 할 때 이에 대한 정보의 양을 h라 하였을 때 h(x) = f(p(x)), h(y) = f(p(y)) 이렇게 임의의 함수 f를 이용하여 나타낼..