일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- dcgan
- ConMatch
- GAN
- CGAN
- Pix2Pix
- Entropy Minimization
- CoMatch
- WGAN
- 딥러닝손실함수
- conjugate pseudo label paper
- BYOL
- dann paper
- adamatch paper
- 백준 알고리즘
- remixmatch paper
- mme paper
- SSL
- semi supervised learnin 가정
- CycleGAN
- UnderstandingDeepLearning
- shrinkmatch paper
- 최린컴퓨터구조
- Meta Pseudo Labels
- mocov3
- cifar100-c
- simclrv2
- Pseudo Label
- 컴퓨터구조
- tent paper
- shrinkmatch
- Today
- Total
목록전체 글 (247)
Hello Computer Vision
논문의 풀 제목은 On the Importance of gradients for detecting distributiomal shifts in the wild이고 논문에서는 GradNorm이라고 한다. 그러나 기존의 2018년에 GradNorm이라는 논문이 따로 존재해서 구분할 필요가 있다. https://arxiv.org/pdf/2110.00218.pdf Introduction 기존의 OOD task 논문들이 OOD score를 뽑아내는 방식은 model output/feature representation을 사용하는 경우가 주를 이루었다고 한다. 그러나 gradient space를 사용하는 경우는 없어서 저자는 이를 언급한다(gradient space라고 하니까 조금 어려워보이고 거부감이 드는데 읽어..
이번에 Multitask 관련하여 ood를 보던 와중에 발견한 논문! CVPR에서 발표된 2020년 논문이다. https://arxiv.org/pdf/2007.11330.pdf Introduction 기존 딥러닝 모델들의 단점들을 말하면서 OOD를 제시하는 것이 아닌 semi supervised learning의 효율성을 언급하면서 unlabeled 데이터 안에 OOD 데이터가 있을 수 있다는 가능성을 언급한다. 여기서 SSL backbone으로 사용하는 방법은 MixMatch이다. 해당 저자들은 "Joint optimization framework for learning with noisy labels" 해당 논문에서 착안하여 방법론을 고안하는데 labeled 데이터들은 OOD score를 모두 0, ..
OOD detection 에 대해서 공부하고 있는데 많은 논문들이 contrastive learning을 활용하는데 있어 이론적으로 설득력이 있어 사용하는 것이 아닌 그냥 CL을 사용하는 것을 확인할 수 있다. OOD detection에서 활용하기 위해서는 조금 다르게 사용되어야 하고 해당 논문이 많은 도움이 될 거 같아 한번 공부해보려고 한다. 논문: https://arxiv.org/pdf/2004.11362.pdf Introduction 최근 Contrastive Learning은 Self supervised learning을 이끌고 있다. 핵심 아이디어는 Embedding space에서의 Anchor 이미지에 대하여 positive 이미지는 끌어당기고 많은 수의 negative 이미지는 미는 것이다..
최근에 OOD detection 논문을 많이 읽었는데 나는 해당 task에 대해 semi supervised 를 적용하고 싶은 마음이 있어서 인사이트를 얻고 싶어 읽어보려고 한다. 문제가 살짝 다르긴한데 그래도 도움을 얻을 수 있을 거 같다. 그리고 읽으면서 느낀 것이 semi supervised learning에 대한 비교들이 많이 진행되는데 제 관심분야는 OOD 에 대한 저자의 견해가 궁금했기 때문에 이 부분에 치중되어 있습니다. https://arxiv.org/pdf/1804.09170.pdf Introduction 라벨링 비용에 대한 가장 매력적인 대안은 semi supervised learning 이라고 말한다. 해당 방법은 unlabeled 데이터에 대해 데이터들간의 구조를 배워 모델을 학습한..
2021 ICLR에서 억셉된 논문이고 SSD라고 불리나 object detection 분야에 유명한 SSD 논문이 있어 제목에는 OOD분야라는 것을 더 명시하였다. https://arxiv.org/pdf/2103.12051.pdf Introduction 저자는 질문을 던진다. 어떤 정보가 outlier detection에 유용할까? 많은 training data가 필요할까 혹은 training process가 중요할까? 데이터 라벨과 outlier들이 항상 가용상태로 있는 것이 아니기 때문에 저자는 unlabeled ID데이터를 사용해야 한다고 말한다. 해당 방법을 수행하기 위한 framework는 2가지 step을 거쳐야한다고 한다. 1. learning a good feature representat..
이번 ICLR 2023에 억셉된 논문이고 풀 제목은 Contrastive Vision Transformer for self-supervised out-of-distribution detection이다. 기존 Contrastive Learning을 활용한 OOD detection문제에서는 CNN을 사용하였는데 해당 논문에서는 ViT를 사용하여 더 좋은 성능을 냈다는 것이 novelty이다. https://openreview.net/pdf?id=UAmH4nDH4l Introduction OOD detection에서의 주 해결점은 당연히 기존 DNN이 다른 domain을 만날 때의 잘 인식하지 못한다는 것을 해결하는 것이다(모르면 모른다고 하는게 인간이지만, AI는 어떻게든 답을 말한다).이런 문제는 자율주행..
해당 내용은 아래의 블로그들을 참고해 작성하였습니다. https://angeloyeo.github.io/2022/09/28/Mahalanobis_distance.html https://darkpgmr.tistory.com/41 현재 OOD detection공부를 하고 있는데 대표적인 논문 중 하나가 score function을 마할라노비스로 정의하기도 하고 이렇게 정의하는 것이 좋은지 최근 논문도 이렇게 사용하고 있다. 기존에도 데이터의 분포를 고려한 거리지표라는 건 어느 정도 알고 있었는데 이번에 한번 알아보려고 한다. 2차원 좌표에서 x, y 두 점 사이의 거리를 유클라디안 거리로 표현해보자면 다음과 같다. 그러나 해당 수치는 데이터의 분포를 고려하지 못하는데 아래 이미지를 보면 딱 이해할 수 있다...
오랜만에 리뷰할 논문은 MoCo V3 논문이다. 해당 논문은 CNN이 아닌 Transformer를 통한 Contrastive Learning을 수행하였고 왜 Transformer를 사용하였는지에 대한 경험적인 실험결과들을 많이 담고 있다. 그리고 밑 글에서 추가로 설명하겠지만 기존 MoCo에서 사용하였던 memory bank는 사용하지 않는다. https://arxiv.org/pdf/2104.02057.pdf Introduction 이전부터 NLP분야에서는 Transformer를 통한 Masked autoencoder가 유행하고 있지만 CV분야에서는 여전히 Siamese 구조가 유행하고 있다는 걸 언급한다(ResNet기반). 따라서 저자는 Vision분야에서도 ViT를 쓰는 것에 집중했다고 한다. 그러나..