일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Entropy Minimization
- ConMatch
- CycleGAN
- cifar100-c
- mme paper
- simclrv2
- 컴퓨터구조
- WGAN
- Pseudo Label
- Meta Pseudo Labels
- semi supervised learnin 가정
- GAN
- 딥러닝손실함수
- adamatch paper
- CGAN
- remixmatch paper
- CoMatch
- 최린컴퓨터구조
- SSL
- shrinkmatch
- Pix2Pix
- shrinkmatch paper
- UnderstandingDeepLearning
- tent paper
- dcgan
- conjugate pseudo label paper
- BYOL
- dann paper
- mocov3
- 백준 알고리즘
Archives
- Today
- Total
목록BCE (1)
Hello Computer Vision
딥러닝 손실함수 알아보기(MSE, BCE, CE)
이번 데이터마이닝 수업에서 예측과 분류하는데 한가지 기법으로 Neural Network가 나오는데 이를 설명하시면서 손실함수 내용들이 나왔다. 분명 내가 자주 쓰는건데 낯설었다. 그래서 한번 정의하려고 한다. 1. MSE(Mean Squared Error) 가장 직관적인 손실함수 방법이다. $$ E = Loss = \frac{1}{2} (y - \hat{y})^2 $$ $y$는 정답값이고 $\hat{y}$ 는 예측값을 의미합니다. 번외로 $\bar{y}$ 는 평균값을 의미합니다. 예시 정답 : 10(y) 예측 : 5 오차 : (10-5)^2 = 25 MSE의 특징이라하면 큰 오차에 대해 더 많은 처벌을 줄 수 있다는 점입니다. MAE(Mean Absolute Error) 와는 다르게 미분이 가능해서 주로..
딥러닝/손실함수
2022. 11. 16. 23:22