일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- ConMatch
- Meta Pseudo Labels
- CoMatch
- CycleGAN
- UnderstandingDeepLearning
- 백준 알고리즘
- cifar100-c
- Entropy Minimization
- shrinkmatch
- BYOL
- mme paper
- Pseudo Label
- adamatch paper
- simclrv2
- 최린컴퓨터구조
- dann paper
- GAN
- CGAN
- 컴퓨터구조
- WGAN
- semi supervised learnin 가정
- SSL
- tent paper
- 딥러닝손실함수
- dcgan
- shrinkmatch paper
- conjugate pseudo label paper
- Pix2Pix
- mocov3
- remixmatch paper
- Today
- Total
목록분류 전체보기 (247)
Hello Computer Vision
이전에 전치행렬과 대칭행렬, 반대칭행렬에 대하여 공부하였다. 이번에는 대각합에 대하여 한번 알아보려고한다. 대각합이란? i x j 행렬 A에 대하여 $a_{kk}$(k는 임의 정수)합을 구하는 것이다. 이것을 기호로 나타내면 $tr(A) = \sum_1^n a_{kk} $ A의 대각합은 1+5+9 = 15가 되고 C의 대각합은 1+5 = 6이 된다. 대각합의 성질 1. $ tr(a A) = a tr(A)$ 2. $tr(A+B) = tr(A) + tr(B)$ 그리고 행렬을 전치하더라도 대각원소들은 위치가 변하지 않기 때문에 행렬이 전치되어도 행렬의 대각합은 변하지않는다.
이번에 자세히 알아볼 내용은 전치행렬, 대칭행렬, 반대칭행렬! 물론 아는 개념이지만 확실하게 짚고 넘어가기 위해 기록하기!! 전치행렬이란? 영어로는 Transposed Matrix라고 한다. 기호로는 $A^{T}$로 쓴다. 이에 대한 정의는 행과 열을 바꾼 행렬이라고 이해하면 된다. 예를 들어 2x3 행렬은 3x2로 바뀌고, 1x5 행렬은 5x1로 바뀐다. 우리가 데이터를 모델에 넣을 때 행렬의 크기가 어긋날 때가 많은데 transpose함수를 이용해 행렬의 크기를 바꾸었던 기억이 난다. i x j 행렬 A의 원소를 $a_{ij}$라고 할 때 $a_{13}$ 의 원소는 $a_{31}$로 위치가 바뀐다. 전치행렬에 대한 성질 알아보기 1. $A^{T^{T}} = A$ 2. $(A+B)^{T} = A^{T}..
공부한 채널 : 수악중독님 유튜브 벡터의 내적이란 무엇인가? 두 벡터에 대해 내적이란 한 벡터를 다른 한 벡터에 정사영한 길이와 다른 한 벡터의 길이의 곱이다. 이렇게 한 줄로 정리할 수 있다. 그렇다면 이것을 도출하는 과정을 한번 가져보려고 한다. $\vec{a} * \vec{b} = l\vec{a}l * l\vec{b}l * cos \theta$ 이렇게 정의할 수 있다. 그리고 이전 포스팅에서 공부했 듯이 cos값은 밑변/빗변이다. 그림을 이용해 한번 살펴보자 A에서 내린 수선의 발을 H라고 했을 때 $cos\theta$값은 밑변/빗변이므로 벡터의 내적 값은 $l \vec{b} l * \bar{OH} $라고 할 수 있다($\vec{a}$ 값이 $cos \theta$와 만나 사라짐.) 그렇다면 결과적으..
벡터 내적에 대한 영상을 보면서 $cos\theta$라는 용어가 나왔고 내적이라는 아주 기본적인 것을 모르는 것에 대해 부끄러움과 함께 이 기회에 반드시 넘어가야한다고 생각했다. cos의 유래 지금은 기술이 발달되어서 건물 혹은 나무의 높이가 어느정도인지 쉽게 알 수 있다. 그렇지만 옛날이라면 이러한 것들이 어렵고 불가능한 일이다. 그렇다면 만약 그림에서 나무 위 해가 있고 나무에 대한 그림자가 사람과 나무 사이에 펼쳐졌다고 해보자. 그렇게 그림자와 나무 꼭대기와의 각도를 재보았고 이를 $ \theta$라고 한다. 이러한 상황에서 우리는 도형이 닮음 상태라면 크기를 반으로 줄인다 하더라도 밑변/높이 or 밑변/빗변 .... 이러한 비들이 같음을 알 수 있다. 그렇다면 이 상황에서 나무의 높이를 구하는 방..
딥러닝을 공부하는 학생의 입장에서 선형대수를 공부해야한다는 말을 많이 보게된다. 선형대수를 공부하는 것이란 무엇일까? 수업에 나왔던 교수님의 말에 따르면 1. 행렬을 공부하는 것 2. 정의역과 치역이 벡터공간안에 있는 함수에 대하여 공부하는 것 --> 선형사상을 공부하는 것 선형대수란 무엇인가 덧셈과 상수곱 구조를 갖고 있는 벡터공간과 그 위에서 정의되고 벡터공간의 연산 구조를 보존하는 함수인 선형 사상에 대한 대수학 여기서 덧셈과 상수곱 구조를 갖고 있는 벡터 공간이란 1차식으로 이루어진 벡터들의 공간이다. (1,2,3)/ (2,3,4) ... 이렇게 무수히 많은 3차원 벡터들을 가지는 공간을 3차원 벡터공간일 것이고 (1,2)/ (2,3) 같이 2차원 벡터들을 가지는 공간을 2차원 벡터공간이라고 한다..
캐시는 메인메모리의 성능을 높이기 위한 하드웨어이다. --> 프로세스 근처에 있어 접근이 빠르다. 명령어는 한번 사용되면 다시 사용될 가능성이 높기에 캐시에 머문다. 한번 사용된 명령어와 인접해있는 명령어들도 쓸 가능성이 높으니 block으로 캐시에 가져온다.(Locality) (한번에 가져오는 block의 사이즈와 cashe의 성능과도 연관이 깊다. 그래프는 log함수 그래프를 띈다) 대부분의 캐시는 set associative cashe로 이루어져있다. 이유 : cashe miss rate를 줄이기 위해 --> 캐시 메모리의 사이즈가 클수록 이 비율이 작아진다 예시) 가장 오랫동안, 많이 사용되지 않는 명령어를 쫓아낸다 cashe miss의 종류 capacity miss, conflict miss, ..
컴퓨터 구조 강의를 듣는데 DRAM 이 많이 나와 한번 체크하고 갈라고 합니다. 찾아보면 찾아볼 수록 끝이 없었는데 강의를 이해할 수 있도록 가볍게만 이해해보려고 합니다. DRAM은 Dyanamic RAM의 줄인말로 동적램이라고도 한다. DRAM은 비휘발성 메모리로 빠른 속도로 일을 처리한다. (근데 명령어가 왔다갔다 할라면 몇백 사이클이 필요하다 했으니 캐시가 이것보다 더 빠르다) 이곳에는 정보를 저장하는 셀이 무수히 많은데 이 셀마다 트랜지스터와 커패시트로 이루어져있다. 이러한 간단한 구조덕분에 일을 빠르게 빠르게 처리할 수 있는 것이다. 셀이 많으면 많을 수록 많은 정보를 담을 수 있지만 그만큼 기술력이 중요하다. DDR, DDR2 DDR3 이런 용어들을 볼 수 있는데 숫자가 높아질 수록 데이터 전..
시험공부에 대해서 계획을 한번 세워봤는데 조금 여유있어서 후다닥 들어보려고 합니다. 작은 CPU들도 다 파이프라인화 되어있다 --> 명령어들을 병렬적으로 처리한다. (파이프라인 내용은 전 주차에 설명) 20년전 CPU들과 비교했을 때 10,000배 이상의 성능을 낸다. but 이에 비해 DRAM의 성능은 발전 속도가 빠르지 않다. 메모리는 크고, 빠르면 좋다. -> 문제 : 빠르면 비싸다. 해결 : Locality를 활용한다. (한 명령어를 참조하면 그 주변에서 다시 참조하여 사용) (주변이라는 것은 메모리의 hierarchy에 따라 밑으로 가면 더 커진다고 합니다) spatial locality 를 활용하기 위해서는 한번에 block(대량의) 명령어들을 가져온다. 우리가 프로그래밍 할 때 캐시, 메모리..