일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 백준 알고리즘
- UnderstandingDeepLearning
- remixmatch paper
- simclrv2
- Entropy Minimization
- CycleGAN
- shrinkmatch paper
- Pseudo Label
- mme paper
- 최린컴퓨터구조
- ConMatch
- GAN
- shrinkmatch
- WGAN
- semi supervised learnin 가정
- dann paper
- dcgan
- 컴퓨터구조
- CGAN
- Pix2Pix
- Meta Pseudo Labels
- BYOL
- 딥러닝손실함수
- tent paper
- cifar100-c
- conjugate pseudo label paper
- CoMatch
- mocov3
- adamatch paper
- SSL
- Today
- Total
목록분류 전체보기 (247)
Hello Computer Vision
2022년 여름방학 때 네이버 부스트코스에서 주재걸 교수님의 선형대수 강의를 수강한 적이 있는데 이를 기록으로 남기려고 합니다. 현재는 학교공부, 논문과 컴퓨터구조를 같이 병행하다 보니 시간이 많이 부족할 거 같은데 이렇게 공개적으로 다짐을 하면서 최대한 빠른 시일 내에 시작할 수 있을 거라 기대합니다. 여기 쌓이는 기록들이 저에게 많은 도움을 줄 것이라 믿어 의심치 않고 열심히 해보겠습니다. 12.23 수정. 우연히 kocw에서 선형대수 강의를 발견했고 1,2로 나누어져 있어서 방학 동안 이 강의를 수강하려고 합니다. 해당 수업은 아래에 링크에 남기겠습니다. 그리고 현재 컴퓨터구조 강의도 유튜브에서 시청하면서 기록으로 남기고 있는데선형대수 공부는 기록 방식을 컴퓨터구조와 같이 1주차/2주차 이렇게 나누..
지난 주말에 1주차 강의를 들었고 정신이 없어 다음날 2주차 강의를 듣지 못하고 하루 건너뛰어 강의를 듣고 지금 기록한다. 시험기간이 오기 전에 최대한 다 빨리 들을 생각이다. 2주차 강의는 기계어 즉 머신 Language에 대한 주제로 시작하였다. 자연어로 컴퓨터에게 명령하는 것이 편리하지만 기술이 부족하다. 궁극적인 목표가 컴퓨터와 우리가 자연어로 대화하는 것이며 언젠가는 그렇게 될 것이다. Machine Language : 단위가 명령어이다. 명령어를 바로 state 시킨다. high level Language : 단위가 statement, 바로바로 state시킨다. interactive Language : How를 입력시킨다. 일일이 다 입력시켜주어야 한다. Functional Language :..
최대한 시간을 활용해가면서 논문리딩을 하는 과정에서 Logistic Regression이란 말이 나왔다. '이 말이 로지스틱 회귀인건 알겠는데.. 그래서 뭐지?' 라는 생각이 들었고 흔한 용어인만큼 당연히 알아야한다고 생각했다. 기존에 알고 있는 선형회귀와 비교해가면서 찾아봤다. 1. 선형회귀(Linear Regression) 키와 몸무게는 얼마나 연관되어 있을까? 키가 크면 몸무게도 클까? 이런 궁금증이 생길 수 있다. 그렇다면 일단 가지고 있는 키와 몸무게들을 좌표평면위에 나타낼 수 있고 이렇게 대략적인 선을 그을 수 있다. 보통 Y축에 있는 것이 종속변수(알고 싶은 값) X축에 있는 값이 독립변수(활용할 변수)이다. 이러한 선은 $ Y = \beta_{0} + \beta_{1} X_{i} $ 식으로..
지난 번에는 강의에 필요한 기본 용어들을 미리 정리하였고 이번에는 수업을 들으면서 중요하다고 생각하는 부분들을 최대한 필기하면서 들었다. 이번 수업에서는 한가지 주제에 대한 강의보다는 전체적인 용어의 흐름, 쓰임 등을 위주로 설명하셨는데 이러한 많은 부분들을 앞으로 더 자세히 설명하신다고 한다. 강의 초반부에서는 여러 CPU에 대한 스펙들을 이야기해주시는데 인텔 CPU에 대해서 많이 이야기하신다. 인텔 펜티움4 의 스펙은 82W, 3.2 GHZ 를 가지고 있다. 55M transistors. 컴퓨터는 programmable digital system이다. cpu 전력소모량은 150w가 넘어가면 발열문제가 발생한다. 보통 100w 근처이다. 컴퓨터의 성능은 클락 스피드와 IPC에 의해 결정된다. IPC란 ..
지난번 DCGAN에 이어서 이번에는 cGAN이다. DCGAN도 그렇고 기존의 vanila GAN도 그렇고 데이터셋을 학습한 후 다른 조건 없이 분포르 학습한 후 이미지를 생성했다면은 이 cGAN은 정답라벨을 줘서 원하는 이미지를 어느 정도 만들 수 있다는 효과가 있다. 논문에서는 MNIST 데이터셋과 해당 라벨을 훈련시켜 원하는 숫자를 나올 수 있다고 한다. 추가로 단순히 이미지만 다루는 것이 아닌 자연어 처리에서 나오는 corpora 같은 용어들도 나오는데 아마 이 논문부터 시작해 DALE 나 GPT처럼 자연어처리와 CV를 결합해 이미지를 어느 정도 제어할 수 있지 않을까 생각한다. 1. Introduction 기존 GAN에 대한 장점을 말해준다. Marcov chain 을 사용하지 않는 점과(이 부분..
학교 공부를 제외한 시간에 원래 논문리딩을 주로 하려고 했었는데 컴퓨터 구조에 지식이 없는만큼 스스로 공부해서 조금이나마 지식을 갖춰야겠다고 생각한다. 그래서 유튜브에 있는 2019학년도 고려대학교 최린 교수님의 컴퓨터 구조 강의를 듣고 이곳에다가 기록을 남기려고 한다. 그래서 어제 2주차 강의를 쓱 봤는데(1주차 강의는 녹화본이 없었다.) 모르는 용어들이 많이 나와서 용어에 대한 사전학습이 필요하다고 생각해 미리 찾아서 정의하려고 한다. 또 추가로 모르는 용어들이 나온다면 그때그때 찾아서 기록해두려고 한다. CPU(Central Processing unit, 중앙처리장치) 사람에 비유하자면 두뇌에 해당하며 명령어의 해석과 자료 연산, 비교 등의 처리를 제어하는 컴퓨터시스템의 핵심장치 Ex)0101010..
지난번 GAN에 이은 두번째 논문 리뷰이다. DCGAN을 코드로 구현해본 적 있는데 GAN이 MLP로 이미지를 생성했다면 DCGAN은 CNN을 이용해 이미지를 생성한 것이 가장 큰 특징이다. GAN 논문을 읽을 때도 익숙한 내용이지만 수식을 이해하느라 어느 정도 시간이 걸려서 이번 DCGAN논문도 읽는데 이틀은 걸릴줄 알았는데 이 논문에서는 수식이 하나도 등장하지 않아서 편하게 읽었다. 수식보다는 GAN으로 할 수 있는 많은 것들을 소개해준 논문 같다. 첫번째 논문처럼 요약보다는 논문 목차를 따라가면서 최대한 논문에 나온 부분들을 다 소개하도록 노력하겠습니다. 논문 원본 : https://arxiv.org/abs/1511.06434 1. Introduction 처음에는 GAN에 대한 장점들(최대우도법 활..
지난 번 논문 리뷰에 이어서 코드 구현을 해볼라고 한다. https://keepgoingrunner.tistory.com/8 GAN(Generative Adversarial Nets, 2014) 논문 리뷰 GAN에 관심가진지 한 3달 정도가 지났고 논문에 대해서도 한번 겉핥기로 본 적이 있긴한데 앞으로 더 많은 논문을 볼텐데 GAN의 시초인 이 논문을 제대로 안 볼 수 없다고 생각하여 논문을 따로 복 keepgoingrunner.tistory.com pytorch로 작성하였고 해당 데이터셋은 Fashion MNIST 를 사용하였다. 전체 코드는 해당 github에서 확인할 수 있습니다. https://github.com/JiWoongCho1/Gernerative-Model_Paper_Review/blob..