일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ConMatch
- dcgan
- conjugate pseudo label paper
- Meta Pseudo Labels
- adamatch paper
- UnderstandingDeepLearning
- 최린컴퓨터구조
- 백준 알고리즘
- remixmatch paper
- GAN
- 딥러닝손실함수
- CGAN
- simclrv2
- WGAN
- Pix2Pix
- Entropy Minimization
- CoMatch
- semi supervised learnin 가정
- shrinkmatch paper
- mocov3
- Pseudo Label
- mme paper
- shrinkmatch
- cifar100-c
- CycleGAN
- SSL
- tent paper
- dann paper
- BYOL
- 컴퓨터구조
Archives
- Today
- Total
목록backpropagation (1)
Hello Computer Vision
비전공생의 Backpropagation(역전파) 직접 손으로 해보기
딥러닝에 빠지고 공부한지 반년 정도의 시간이 흘렀는데요, Backpropagation이라는 개념을 어렴풋이 알고 있었고 모델을 훈련시킬 때 잘 되겠지 하고, 생각을 했지만 앞으로 계속 모델을 만질텐데 이러한 black box부분을 정확히는 모르더라도 어떻게 돌아가는지는 알아야 겠다고 생각해 한번 손으로 써보고 정리해보려고합니다. 일단 backpropagation을 왜 사용할까? 이 이유에 대해서는 gradient descent 를 왜 사용하는지부터 알면 좋을 거 같은데요, 왜냐하면 backpropagation은 gradient descent를 최대한으로 활용하기 위한 알고리즘이기 때문입니다. gradient descent에 대해서는 간략하게 정리해놓은 글이 있는데 봐주시면 도움이 될 거 같습니다. 비전공..
딥러닝
2022. 11. 9. 23:15