일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- simclrv2
- remixmatch paper
- dcgan
- cifar100-c
- CGAN
- CycleGAN
- CoMatch
- 최린컴퓨터구조
- mocov3
- BYOL
- 백준 알고리즘
- dann paper
- 컴퓨터구조
- Meta Pseudo Labels
- UnderstandingDeepLearning
- SSL
- tent paper
- adamatch paper
- Pseudo Label
- shrinkmatch
- Pix2Pix
- GAN
- WGAN
- semi supervised learnin 가정
- mme paper
- 딥러닝손실함수
- Entropy Minimization
- ConMatch
- shrinkmatch paper
- conjugate pseudo label paper
Archives
- Today
- Total
목록XGBoost (1)
Hello Computer Vision
[머신러닝] XGBoost 에 대한 이해
참고 영상 : 유튜브영상 지난번 Gradient Boost 에 이은 이번에는 XGBoost이다. XGBoost는 다시 말하면 기본적으로 Gradient Boost이다. 그렇지만 기존 방법과 차별화된 점은 더 많은 데이터 수용 가능하며 이를 빠르게, 병렬처리하는 과정을 나타낸 것이 XGBoost라고 할 수 있다.(여기서 X는 Extreme을 뜻한다) 나온 배경 기존 의사결정나무같이 Exact greedy 알고리즘의 장점이라고 하면 모든 해를 다 탐구하기 때문에 항상 정확한 해를 찾을 수 있다. 단점이라고 한다면 분산처리를 할 수 없으며 모든 데이터가 메모리에 들어가지 않는다면 문제가 생긴다. 이러한 주된 문제점들을 해결하기 위해서 XGBoost는 어떠한 방법을 사용할까? 바로 bucket을 이용하는 것이다..
머신러닝
2023. 2. 14. 15:59