일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 딥러닝손실함수
- mme paper
- dcgan
- mocov3
- shrinkmatch paper
- dann paper
- 백준 알고리즘
- 최린컴퓨터구조
- remixmatch paper
- Pix2Pix
- conjugate pseudo label paper
- GAN
- semi supervised learnin 가정
- 컴퓨터구조
- adamatch paper
- Meta Pseudo Labels
- UnderstandingDeepLearning
- CoMatch
- Entropy Minimization
- shrinkmatch
- ConMatch
- CycleGAN
- BYOL
- simclrv2
- tent paper
- CGAN
- Pseudo Label
- cifar100-c
- WGAN
- SSL
Archives
- Today
- Total
목록선형회귀 (1)
Hello Computer Vision
로지스틱 회귀(Logistics Regression)와 선형 회귀(Linear Regression)
최대한 시간을 활용해가면서 논문리딩을 하는 과정에서 Logistic Regression이란 말이 나왔다. '이 말이 로지스틱 회귀인건 알겠는데.. 그래서 뭐지?' 라는 생각이 들었고 흔한 용어인만큼 당연히 알아야한다고 생각했다. 기존에 알고 있는 선형회귀와 비교해가면서 찾아봤다. 1. 선형회귀(Linear Regression) 키와 몸무게는 얼마나 연관되어 있을까? 키가 크면 몸무게도 클까? 이런 궁금증이 생길 수 있다. 그렇다면 일단 가지고 있는 키와 몸무게들을 좌표평면위에 나타낼 수 있고 이렇게 대략적인 선을 그을 수 있다. 보통 Y축에 있는 것이 종속변수(알고 싶은 값) X축에 있는 값이 독립변수(활용할 변수)이다. 이러한 선은 $ Y = \beta_{0} + \beta_{1} X_{i} $ 식으로..
mathematics
2022. 11. 1. 11:38