일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- simclrv2
- UnderstandingDeepLearning
- 컴퓨터구조
- 백준 알고리즘
- cifar100-c
- 딥러닝손실함수
- dcgan
- CycleGAN
- GAN
- Pseudo Label
- remixmatch paper
- BYOL
- shrinkmatch paper
- Meta Pseudo Labels
- Pix2Pix
- shrinkmatch
- dann paper
- SSL
- mocov3
- ConMatch
- mme paper
- 최린컴퓨터구조
- CoMatch
- semi supervised learnin 가정
- CGAN
- Entropy Minimization
- tent paper
- conjugate pseudo label paper
- adamatch paper
- WGAN
- Today
- Total
목록Domain Adaptation (3)
Hello Computer Vision
논문의 풀 제목은 Attract, Perturb and Explore: Learning a Feature Alignment Network for semi-supervised Domain Adaption이다. 저자의 github에서 APE로 되어있기에 이렇게 표기했다.https://arxiv.org/pdf/2007.09375.pdf Introduction이 논문에서는 기존 UDA, SSDA 방식들의 문제점을 지적하는데, source distribution을 사용하여 분류하는 방식을 배우는 과정에서 target distribution에서 source와 비슷한 이미지를 attract할 수 있다고 한다. 이 부분은 당연할 수 있지만 반대로 생각한다면 그렇지 못한 feature들이 대부분일 것이고 이것을 줄이는 ..
논문의 풀제목은 Semi-Supervised Domain Adaptation via Minmax Entropy이다https://arxiv.org/pdf/1904.06487.pdf Introductiontrain 과정에서 훈련한 분포와 test 과정에서의 데이터가 iid가 아니라 다른 분포에서 샘플링됐다면 이는 성능 하락으로 이어 지기 때문에 이를 대처하는 것이 중요하다. SSDA에서는 많은 labeled source data, 약간의 labeled target data, 많은 unlabeled target data가 주어지고 gap을 줄이는 것을 목적으로 한다. 이 논문에서는 Minmax entropy minimization을 사용하여 이를 해결하려고 한다.기존 방식과 비교를 한 것인데, 기존 방식들은 ..
논문의 풀 제목은 Domain-Adversarial Training of Neural Networks이다. DANN이라고도 불리며 Semi supervised Domain Adaptation에서 시초격인 거 같아서 리뷰해보려고 한다.https://arxiv.org/pdf/1505.07818.pdf Introduction딥러닝에서 겪을 수 있는 흔한 문제는 train, test 데이터 셋에서 흔하게 일어날 수 있는 shift문제이다. 따라서 이러한 shfited distribution에서의 classifier가 잘 분류할 수 있도록 훈련하는 것이 Domain Adaptation(DA) 라고 할 수 있다. 여기서 target distribution은 모두 unlabeled 데이터이다. 기존의 방법들은 위의 ..