일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ConMatch
- tent paper
- SSL
- semi supervised learnin 가정
- 컴퓨터구조
- shrinkmatch
- remixmatch paper
- Entropy Minimization
- mme paper
- 최린컴퓨터구조
- Meta Pseudo Labels
- BYOL
- WGAN
- CycleGAN
- UnderstandingDeepLearning
- adamatch paper
- dann paper
- mocov3
- Pix2Pix
- Pseudo Label
- dcgan
- 딥러닝손실함수
- 백준 알고리즘
- conjugate pseudo label paper
- shrinkmatch paper
- CGAN
- cifar100-c
- simclrv2
- CoMatch
- GAN
Archives
- Today
- Total
목록Attention (1)
Hello Computer Vision
비전공생의 Attention(Neural Machine Translation By Jointly Learning to Align and translate, 2015)
Transformer를 공부하기 위해 Attention 관련 논문을 살펴보려고 한다. 이 논문에서는 대놓고 attention mechanism 이라고 언급하기 보다는 새로운 구조라고 말한다. 논문 처음부터 천천히 읽어보겠습니다. Introduction 기존의 machine translation(Seq2Seq)에 단점에 대해서 언급을 합니다. Encoder-Decoder로 이루어진 구조는 긴 문장에 대해서 대응하기 힘들고 그 길이가 길어질 수록 성능이 악화된다고 합니다. (fixed vector length --> bottleneck 유발) 그렇기 때문에 Encoder-Decoder 학습과정에서 learn align, translate jointly 한다고 합니다.(논문의 핵심) 그리고 기존 구조 접근방식..
Generative
2023. 1. 3. 15:03