0.51의 정확도 (0.50 가 랜덤)를 가진 weak classifier를 여러개 합쳐 정확도 1 에 가까운 strong classifier 를 만들 수 있다.


각 weak classifier 마다 weight에 해당하는 계수가 있고, 각 classifier가 낸 error를 이 weight로 평균낸, 평균 error를 최소화하는 방향으로 학습을 함.

그래서 특정 weak classifier가 틀리면 weight를 내리고, 맞으면 그대로 둠.

이를 무한히 반복하면 점진적으로 acc가 같거나 좋아짐


'연구 > Machine Learning' 카테고리의 다른 글

Practical Theano Tutorial  (0) 2015.03.11
Bayesian Network  (1) 2015.03.10
Ada boost  (1) 2014.12.16
Kernel Density Estimation, Gaussian Mixture Model  (0) 2014.10.30
Bayes Error  (0) 2014.10.27
Polynomial Regression, Non-Linear Features  (0) 2014.10.03
by 곽동현 이스텔리앙 2014.12.16 10:27
  • 댓글러 2019.03.10 22:35 ADDR EDIT/DEL REPLY

    ㄳ.
    이해했음.
    무슨 말인지 알겠음.