일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Entropy Minimization
- Meta Pseudo Labels
- 백준 알고리즘
- simclrv2
- dann paper
- SSL
- CycleGAN
- 딥러닝손실함수
- Pseudo Label
- UnderstandingDeepLearning
- WGAN
- dcgan
- 최린컴퓨터구조
- adamatch paper
- ConMatch
- shrinkmatch
- Pix2Pix
- shrinkmatch paper
- tent paper
- BYOL
- 컴퓨터구조
- conjugate pseudo label paper
- semi supervised learnin 가정
- cifar100-c
- mme paper
- mocov3
- GAN
- remixmatch paper
- CGAN
- CoMatch
Archives
- Today
- Total
Hello Computer Vision
batch size 와 mini-batch size의 차이점 본문
공부하는 도중 두 용어가 나오는데 정확하게 정의하지 못하고 혼동되는 내 자신을 보며 이번에 정리해야겠다고 생각했다.
Batch size
모델이 학습할 때 이용할 데이터의 개수이다.
예를 들어 batch size가 64라고 한다면 한번 학습할 때마다 64개의 데이터를 사용해 학습한다. 따라서 배치사이즈가 클수록 한번에 많이 처리하는 만큼 총 학습속도는 빠를 수 있지만 메모리가(GPU) 부족할 수 있다.
Mini batch size
batch size가 모델이 1회 학습할 때마다 수행할 데이터의 개수라면 mini batch size는 그 데이터 개수를 한번에 처리하는 개수를 뜻한다. 예를 들어 batch size가 64고 mini batch size가 16이라면 16씩 4번에 걸쳐서 1회 학습한다는 의미이다. 이 역시 수치가 크면은 학습이 빠를 수 있지만 너무 크면 학습이 불안정하다.
두 하이퍼 파라미터는 모두 학습의 최적화를 위해 결정해야한다.
2013.4.12 수정)
이론상으로는 위에 적어놓은 정의가 맞지만 혼동해서 적는 경우가 있다고 합니다. 따라서 정확한 정의는 알아두고 논문을 읽을 때는 상황에 맞게 이해하면 될 거 같습니다.
'머신러닝' 카테고리의 다른 글
Introduction (0) | 2023.09.10 |
---|---|
머신 러닝 공부 (0) | 2023.09.09 |
[머신러닝] XGBoost 에 대한 이해 (0) | 2023.02.14 |
[머신러닝] Gradient Boost 공부해보기 (GBM) (0) | 2023.02.05 |
[머신러닝] Boosting이란? (0) | 2023.01.28 |