일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- dann paper
- CGAN
- 백준 알고리즘
- simclrv2
- mme paper
- remixmatch paper
- Meta Pseudo Labels
- Pix2Pix
- Entropy Minimization
- shrinkmatch paper
- CoMatch
- adamatch paper
- CycleGAN
- GAN
- 컴퓨터구조
- tent paper
- Pseudo Label
- dcgan
- 최린컴퓨터구조
- BYOL
- SSL
- UnderstandingDeepLearning
- ConMatch
- mocov3
- WGAN
- conjugate pseudo label paper
- cifar100-c
- shrinkmatch
- semi supervised learnin 가정
- 딥러닝손실함수
- Today
- Total
Hello Computer Vision
Focal Loss 공부해보기 본문
해당 글은 많은 부분 https://gaussian37.github.io/dl-concept-focal_loss/ 를 참조하였습니다.
Object detection 문제에서 사용하는 손실함수는 여러가지가 있는데 우선적으로 bounding box가 한 물체에 대해 생성하는 classification loss가 있다. 그리고 너무 당연하게도 많은 bounding box들이 우리가 찾고자 하는 물체가 아닌 배경, 즉 background에 대하여 bounding box를 그릴 것이고 이에 대하여 loss를 발생시켜 안하도록 해야한다.
그러나 이러한 loss를 발생시키는 Cross Entropy의 경우 많은 negative, positive 부분에 대하여 가중치가 없다. 일반적인 분류문제에서는 상관없겠지만 한 이미지에서 많은 background부분들이 발생시키는(easy negative) loss가 압도적으로 커져, 문제가 생길 수 있다.
그렇기 때문에 Focal loss를 도입하여 각 sample에 대하여 가중치를 부여하는 것이다.
기존 CE 와 비교해본다면 (1-pt)^r 이 추가된 것을 확인할 수 있다. 이 term의 역할은 easy example에 대하여 loss의 가중치를 줄이는 것이다. 여기서 gamma값은 최적화를 위한 하이퍼파라미터인데 논문에서는 2값을 최종적으로 준다고 한다. 위 그림을 본다면 ground truth class에 대해 확률이 높은 오른쪽 skew부분이 easy example이라고 할 수 있는데 이에 적은 loss를 부여하는 것을 확인할 수 있다. gamma값이 0인 파란색 그래프가 CE라고 할 수 있다.
'딥러닝 > 손실함수' 카테고리의 다른 글
Gaussian distribution과 Mean Squared Error와의 관계 (1) | 2023.09.30 |
---|---|
Cross Entropy 초기 loss알아보기 (0) | 2023.09.26 |
Softmax 활성화함수 알아보기 (0) | 2023.01.03 |
딥러닝 손실함수 알아보기(MSE, BCE, CE) (0) | 2022.11.16 |