일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- CGAN
- Meta Pseudo Labels
- semi supervised learnin 가정
- tent paper
- Entropy Minimization
- CycleGAN
- 백준 알고리즘
- shrinkmatch
- simclrv2
- cifar100-c
- SSL
- Pseudo Label
- WGAN
- GAN
- 최린컴퓨터구조
- CoMatch
- UnderstandingDeepLearning
- ConMatch
- adamatch paper
- mocov3
- 딥러닝손실함수
- dann paper
- shrinkmatch paper
- dcgan
- remixmatch paper
- mme paper
- Pix2Pix
- conjugate pseudo label paper
- 컴퓨터구조
- BYOL
- Today
- Total
Hello Computer Vision
SelfMatch(2021) 논문리뷰 본문
이번에 semi를 공부하는 도중에 self 와 섞인 논문을 발견하여 리뷰해보려고 한다. NIPS에 억셉된 시기는 2020년으로 해당 년도는 SimCLR이 나오고 FixMatch가 나온지 얼마 안된 시점인데 두가지를 결합한 것이 큰 novelty라고 생각했다.
https://arxiv.org/pdf/2101.06480.pdf
Introduction
semi supervised learning은 적은 수의 라벨에 대해서 문제를 해결할 수 있는 매력적인 방법이고 self supervised 역시 SimCLR 로 시작된 contrastive learning을 활용한 representation learning을 한 후 fine tuning을 하면은 좋은 성능을 냈다고 한다. 따라서 논문은 이 두가지 방법을 활용해, self supervised learning을 활용해 pre-trained하고 semi supervised 를 활용해 fine-tuning을 해서 좋은 성과를 냈다고 한다.
Method
프레임워크는 위와 같으며 두 분야에 관심있는 사람이라면 직관적으로 쉽게 이해할 수 있는 구조이다. 먼저 SimCLR에서 사용된 알고리즘을 활용해 pre-trained 하고 fine tuning 은 FixMatch방식으로 진행한다(배치사이즈나 학습률 같은 자세한 하이퍼파라미터는 논문 안에 기재되어있다). 그리고 이 두가지 방법론을 결합한 이유에 대해 Appendix 에서 설명한다.
pre-trained 과정에서 SimCLR방식을 사용함으로써 maximizing a lower bound of the murual information이란 표현을 사용하며 intra-sample statistics를 고려했다고 하며 semi supervised를 사용함으로써 inter-sample statistic를 고려했다고 ㅎ한다. 이 부분에서 consistency regularization을 사용해 inter sample 언급을 하는데 consistency regularization은 같은 sample에 대해 weak, strong 증강에 대해 같은 확률값을 내도록 노력하는건데 왜 inter이란 말이 나오는지는 처음에 이해는 못했는데 다른 class들에 대한 확률 값을 낮추도록 노력하므로(entorpy minimization) 이런 용어를 사용하지 않았나 싶다.
Conclusion
결과는 supervised setting과 비슷한 것을 보여준다. 추가로 내가 눈여겨 본 것은
위 table인데, simclr로 훈련하고 단순히 head만 fine tuning하는 것보다 semi로 fine tining하는 것이 더 좋다는 것을 보여준다.
ImageNet, CIFAR100 같은 데이터를 제외한 결과들이어서 조금 아쉽고, 알고리즘을 사용한 논리에 대해서도 그래프가 있었으면 좋았을 거 같은데 단순히 이론들뿐이어서 아쉬웠다.
'Self,Semi-supervised learning' 카테고리의 다른 글
ReMixMatch(2020) 논문리뷰 (0) | 2024.03.07 |
---|---|
Label smoothing 효과 공부해보기 (0) | 2024.03.04 |
Semi Supervised Learning에서 Pseudo label의 정확성 (0) | 2023.12.29 |
semi supervised learning(준지도학습)에 사용되는 가정 및 방법 (0) | 2023.12.25 |
비전공생의 Whitening for Self-Supervised Representation Learning(2021) 논문리뷰 (1) | 2023.12.19 |