본문 바로가기
Research/Machine Learning

Ada boost

by 곽동현 IMCOMKING 2014. 12. 16.

0.51의 정확도 (0.50 가 랜덤)를 가진 weak classifier를 여러개 합쳐 정확도 1 에 가까운 strong classifier 를 만들 수 있다.


각 weak classifier 마다 weight에 해당하는 계수가 있고, 각 classifier가 낸 error를 이 weight로 평균낸, 평균 error를 최소화하는 방향으로 학습을 함.

그래서 특정 weak classifier가 틀리면 weight를 내리고, 맞으면 그대로 둠.

이를 무한히 반복하면 점진적으로 acc가 같거나 좋아짐


'Research > Machine Learning' 카테고리의 다른 글

Kalman Filter  (0) 2015.03.11
Bayesian Network  (1) 2015.03.10
Ada boost  (1) 2014.12.16
평균과 분산 통계적 검정, T 검정, 카이스퀘어 검정  (0) 2014.12.15
Digital Signal Processing, Parallelization  (0) 2014.11.17
Kernel Density Estimation, Gaussian Mixture Model  (0) 2014.10.30

댓글1