일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- UnderstandingDeepLearning
- dann paper
- CycleGAN
- ConMatch
- conjugate pseudo label paper
- SSL
- 최린컴퓨터구조
- GAN
- 백준 알고리즘
- 딥러닝손실함수
- shrinkmatch paper
- adamatch paper
- mocov3
- dcgan
- CGAN
- tent paper
- 컴퓨터구조
- shrinkmatch
- CoMatch
- Meta Pseudo Labels
- WGAN
- Entropy Minimization
- Pseudo Label
- simclrv2
- cifar100-c
- Pix2Pix
- BYOL
- mme paper
- semi supervised learnin 가정
- remixmatch paper
Archives
- Today
- Total
Hello Computer Vision
비전공생의 Auxiliary Tasks in Multi-task Learning 본문
논문에서 가끔 Auxiliary task라는 용어를 보았고 task를 잘 정해 수행한다면 좋은 결과를 내지 않을까 생각해서 한번 찾아보았다. 논문이 길지 않은 것도 있지만 내가 원하는 결과만을 압축해서 요약해보았다.
https://arxiv.org/pdf/1805.06334.pdf
Introduction
MTL은 하나의 input에 대하여 여러 output을 산출하는 방식이다(논문에서는 구체적인 작업을 언급하기는 하지만 내 관심사는 아니라서 제외하였다). 그리고 auxiliary task를 소개하는데, image에 대한 rich, robust common representation을 제공할 수 있다고 하며 main task를 푸는데 도움이 될 수 있다고 한다. 이를 시각화해보면 다음과 같다.
위 이미지는 저자가 2개의 MTL에 대하여 더 잘 수행하기 위해 2개의 auxiliary task를 추가한 것이다.
Experiments and Results
main task 이외에도 auxiliary task를 수행하는 것은 일종의 regularizer 역할을 할 수 있다고 한다. 또한 결과적으로는 성능이 좋다고 하지만 task를 선정할 때는 신중하게 골라야한다고 한다(당연한게 MTL을 수행할 때도 서로 관련있는 task를 수행해야 한다).
위 table이 결과인데 아쉬운건 그냥 단순 MTL을 진행했을때와 비교 관련 표는 없다. 그러나 잘 알 수 있는 것은 auxiliary task도 잘 수행한 것을 알 수 있는데, 이는 이미지에 대한 충분한 이해를 했다고 볼 수 있다.
'딥러닝' 카테고리의 다른 글
[matplotlib] tensorboard 여러 지표 저장하기, 지표 색깔 지정하기 (0) | 2024.01.26 |
---|---|
비전공생의 GradNorm(2018) 논문리뷰 (0) | 2023.12.14 |
UnderstandingDeepLearning-Deep neural networks (0) | 2023.09.20 |
UnderstandingDeepLearning-Shallow neural networks (0) | 2023.09.20 |
Understanding DeepLearning-Supervised learning (0) | 2023.09.19 |